Meine Blog-Liste

Donnerstag, 5. Juni 2014

140605_Zusammenfassung_Teil_II

Liebes Tagebuch, ...

einen Tag vor der Klausur fassen wir die Themen des zweiten Kapitels noch einmal zusammen:

Video Marketing

1. SEO (Kanal/Video)
Keywordoptimierung: Titel, Anmerkungen, Untertitel (Übersetzung), Beschreibung, Tags, Teilen & Einfügen des Videos --> wichtig für Google Raqnking, wie oft wurde es verlinkt, Social Buttons, Kanalkommunikation --> Kanalabo, call-to-action, Overlay, Foto (inkl. Social Media Buttons), Link setzen (in Videos oder anderen Kanälen wie z. B. Text),Nutzerrelevant, Interaktivität (Kommentare, Teilen ...), Responsive, Kanalname, Navigation festlegen, Ansprache an Nutzergruppe (Ebenen), Kanaltrailer einrichten, Keywordtool von youtube oder Keyword Planer um Keywords zu finden

2. RichSnippet (eignet sich für eigene Website), Thumbnail (löst es den Call-To-Action aus?)

3. Monetarisierung (Werbeformate: TrueView, Overlay, Display Ad Stream/InSearch)
Videoformate: http://www.google.de/ads/video/ad-formats.html

4. Adwords Videoanzeigen: RichMedia Gallery, Interaktionsanzeigen

5. Videoarten:...

6. Statistische Daten (Wichtigkeit von Videos im Ranking)

7. Trendanalyse

8. Bestplayer Unterstützung und Mediennetzwerke wie Mediakraft


SEA - Suchnetzwerkschaltung

1.Top Pages, welche SERP (erste Seite)
2. Anzeigenerweiterungen (Google+, Orte (mit Places Konto verbunden), Bewertungen, Telefon, Sitelinks (kann bis zu 6 Stück konkret angeben; große (wenn man für Brand gesetzt sein möchte) ansonsten genügen kleine).
3. Positionhängt vom AZ Rang ab (cost per click und Qualitätsfaktor QF (1-10 --> 10=höchste) kann ich mir je Keyword einblenden lassen; QF Klickhistorie, Kontohistorie und Qualität der Seite - ansonsten sind wir in der Blackbox, da Google nicht alles misst)
4. Konto - Kampagnenebene (Orte, Budget, Erweiterungen, Sprache, Werbeplanung, Verteilung des Budget (manuell festgelegt oder Google richtet es 30 Tage aus) - AZ Gruppen - (Keywordebene) Anzeigen (bestehen aus ZielURL und eine angezeigte URL, Titel und zwei Textzeilen) ... starte mit Berlin ...
5. Keywordarten (genau passend, ausxhließende, Wortgruppen (weitgehend passend) - Varianten (auf Kampagnenebene wenn ich sage Hit, dass bei Mützen erscheint)
6. Short, mid, longtail (bei Wortgruppen wichtig, damit longterm nicht auseinander genomme werden)
7.Rotation (AZ testen); Ausrichtung/Verbesserung nach Conversion Rate (CR), Klicks

Frequency Capping eher bei Displaymarketing

SEO - Onpage

1. Meta-Tags (Titel, Description, Meta Keyword, bevorzugte URL (Canoncial Tag)
2. Body Optimierung (Überschriften h1-h6, Dichte, Hervorhebungen, ob Text anfängt und so wieder aufhört, ...)
3. Google+ VErknüpfung (Autoren und Seite)
4. Robots.txt und Sitemap (für die ganze universal search, also Videos, Bilder, ...)
5. Pages Speed (CSS auslagern, Bilder, ...)
6. Crawlertiefe 5-6 Ebenen, möglichst weit vorne
7. Fehlerseiten, Weiterleitungen, Bild alt und Tiefe
8. RichSnippets anlegen (Rezepte, Eriegnisse, Events, Breadcrumps, Autorenbild durch obige Autorenverknüpfung,...)
9. Benutzerfreundlichkeit (User Sitemap, Hilfe, Suche)
10. Freshness
11. Interne Verlinkung (muss Vererbung des Page Rank beachten --> 0/1-10, je höher, desto besser); wichtigste Seiten, beliebteste Posts, ... Kann onpage vererbt werden, wird aber Offpage bewertet
12. Alter und Domainname, Länderkennung
13. Indexierte Seiten


Webmaster Tool

1. Rich Snippets und Data highlighter ... schema.org
2. Besuche (häufigste Seiten --> damit ich weiter intern verlinken kann)
3. Sitelinks abwerten (bhis zu 100 Stück)
4. Robots.txt, sitemap hochjagen
5. Keyword organisch einsehen ... Leider keine Echtzeitanalyse anwendbar
6. Weiterleitung,, Fehlerseiten, Crawlingfehler (HTTP-Statuscode)
7. Indexierte Seiten (abrufen lassen, Status ändern auf zB noindex oder entfernen)
8. auf Permalinks achten
9. Spam prüfen (ob durch updates sich was geänder that)
10. Autorenstatistiken
11. Ladezeiten
12. Wer hat mich verlinkt und besucht (Offpage Verlinkungen)


SEO Offpage Optimierung

1. Backlinks (Top Pages einsehen  mit onsite explorer; Anzahl,
2. Popularität (Link, Domain, IP)
3. Co-Citation und Co-Occurence
4. Trust (Linkverknüpfungen) (Vertrauen einer Seite/wie vertrausnevoll ist der Partner), Autorität (wird der Domain zugeordnet)(Themenrelevanz), Content (worüber schreibst Du/passt die Thematik)
5. Linknähe (Ort, Zeit, Themennähe)
6. Natürlichkeit (dofollow/nofollow), Attribute, wie Textlink, Bildlink, Affiliatelink Linkspitzen (kommen plötzlich viele rein), BacklinksPartner (auch kleine Seiten sollte ich erreichen und nicht nur big player), Ankertexte
7. Page Rank, Alexarank (wie wichtig ist eine Person), Sichtbarkeitsindex (Sistrix)
8. Penguine, Panda Updates (Links und Content prüfen)
9. Weniger tote Links (entfernen
10. Verzeichnisse, onlinePR/Webportale, Blogs, Foren, Kataloge, Social Media (hoher traffic), Gastartikel
11. Linkhandel (Linkbating aktiv/passiv = Content so toll, dass er sich quasi von alleine verbreitet) - Kreuzverlinkungen und nicht reziprok


UX-UI

1. Usability (Barrierefreiheit, findet der KD alles, wie navigiert er auf der Seite  (7 Navigationspunkte), Informationsarchitektur...); 3er Regel (3 Klicks)
2. Landingpage Optimierung
3. Klick, Heatmap (F-Line), Scrollmap, Formulartracking / Tests (Expertentests, Usertests, Befragungen,...)
4. Hauptseite, Kategorieseite, Detailseite, Landingpage, Squeeze-Page, DoorwayPages (früher), Microsites
5. Above the fold (Werbung, Heroshot auf Landingpage) ... sollte werbefrei sein (aber wenn man z. B. Wetter.de ist, dann wäre die Lage wohl anders)
6. Captcha (Spam vermeiden)
7. Responsive Design!!! Usertypen: Mobile benötigt andere Infos als auf Tablet --> Anpassung der Navigation und gerätespezifische Inhalte
8. Erlebnisse schaffen (User Experiences/was erlebt der User auf der ganzen Domain)
9. Breadcrump als Navigationshilfe; globale und lokale Navigation

10. CTR (Click through), CR, Klicks, Navigieren
11. Mock-Ups
12. User SItemap (Hilfe, Suche, Live-Chat)  
13. Conversion und Landingpage Optimierung (Bouncing Rate); Multichannel (wie viele Schritte, bis User Conversion ausgelöst hatte)
14. Layout-Algorithmus (je größer ich werde, desto enger wird es; Google will Shops stärker testen)


Analytics (gern aus Monitoring --> PageAnalyse, A/B Tests,... hinzuführen)

1. Geografische Ausrichtung
2. Technische Anbieter
3. Besucherfluss/Verhaltensfluss, Seitennavigation
4. Organische und bezahlte Keywords sehen (was haben Besucher eingegeben)
5. Site-Search machen
6. Inpage-Analyse, A/B Tests
7. Kanäle, Refferer (woher kommen die Leute)
8. Ziele anlegen, Zieltrichter (leiten von Landingpage bis Dankesseite, CR (monetären Wert)
9. Bouncing Rate, Time-on-Site (Verweildauer), Unique Visitors oder wiederkehrende Besucher
10. Echtzeitanalyse



Affiliate Marketing

1. Direkte Netzwerke: Themen, Implementierungen (Bsp. PartnerNet), Designanpassung, Vielfalt an Links, Bannern, Shops, technische Aspekte, Produktauswahl
2. Software (Upselling/Crossselling, Provisionszahlunegen Anpassung, Affiliates ID, Tracking, ...)
3. wichtig: muss Publisher finden --> Akquise betreiben; oder Publisher muss Merchant finden; wi emuss ich mich SEA/SEO optimieren; Subdomain einrichten, ... Trackingformen ...
4. Adsense (AZ EInbindung aus Adwords auf eigene Seite, A/B Tests machen, Placements ein und ausschließen, Channel Gruppierungen ... kann Ort bestimmern, wohin), Statistik (Reporting, z. B. wieviel Geld ich damit verdient habe), Designanpassung via Adsense

Mittwoch, 4. Juni 2014

140526_SEA_Adwords_IT

Liebes Tagebuch, ...

Nachtrag vom 26. Mai:

SEA - Adwords Suchnetzwerk 26.05.2014


Heute beschäftigten wir uns damit, wie man eine Anzeige bei den SERPS einstellt. Grafisch ist damit also das gemeint:


Wie unschwer zu erkennen ist, handelt es sich um die Anzeigen, d.h. die ersten drei Ergebnisse der Ergebnisliste bzw. rechts von der Ergebnisliste angezeigt werden. Befassen wir uns also im folgenden damit, wie man dort eine Anzeige schalten kann und welche Gestaltungsmöglichkeiten es gibt.


Eine Platzierung erreichen wir über eine Adwords-Kampagne.
Hierfür erstellen wir eine neue Kampage (Nur Suchnetzwerk). Zuerst müssen die Kampagneneinstellungen gewählt werden:



  1. Kampagnenname
  2. Kampagnentyp
    • Standard - keywortbezogene Textanzeigen in den Google-Suchenergebnissen
    • Alle Funktionen - Alle Funktionen und Optionen, die für das Suchnetzwerk verfügbar sind
    • Anzeigen mit Produktinformationen - Anzeigen zur Hervorherbung Ihres Googles merchant center-Produktinventars
    • Dynamische Suchanzeigen - Anzeigenausrichtung auf Grundlage Ihrer Website-Inhalte.
  3. Werbenetzwerk (Suchnetzwerkeinbeziehen)
  4. Geräte: Für alle Geräte gleich
  5. Eingrenzung auf Standorte und Sprachen
  6. Gebotstrategie: Ich kann Gebote manuell festlegen oder von Adwords festlegen lassen, aber ein Budget pro Tag vorgeben.
  7. Anzeigenerweiterung (Beispiel Grafik,s.u.)
    • Standort (hier Verbindung zu Google Places)
    • Google Sitelinks (Link zu meiner Website)
    • Anruf (Telefonnummer anzeigen und tracken)
    • App (Link zur mobilen App)
    • Bewertungen
  8. Werbezeitplan
  9. Anzeigenschaltung (Rotation und Frequency Capping)
  10. Keyword-Übereinstimmungstypen (genau passend oder passende Wortgruppe. D.h. auswählbar, ob Pluralformen, falsche Schreibweisen nahe Varianten eingeschlossen werden sollen bzw.  nahe Varianten nicht eingeschlossen werden soll.  Schließt man die nahen Varianten aus, erzielt das natürlich weniger Klicks / Impressionen, dafür aber auch nicht so viele Streuverluste) --> hier ein Link zur Funktionsweise: https://support.google.com/adwords/answer/2497836?hl=de
  11. Tracking-URL für dynamische Links (ID-Tracking in der URL)
  12. Dynamisches Suchanzeigen (bei dynamischen Suchanzeigen wird der Content meiner Website für die Ausrichtung meiner Anzeigen verwenden.D.h. wenn ich bei dem Keyword "SEO" eine Anzeigenschaltung erreichen möchte, so muss ich auch über SEO auf meiner Website schreiben.(-->Dynamische Suchanzeigen:
    Bezeichnet ein neues Feature in Google AdWords, mit dessen Hilfe man Kampagnen ohne explizite Angabe von Keywords bucht. Die Auswahl der Suchbegriffe erfolgt automatisch durch Google selbst. Google schaut hier eigenständig nach bisher im Konto nicht gebuchten, aber für die Website relevanten Begriffen/Ausdrücken und auch signifikanten Zielseiten. Als Anzeige gibt man nur eine Vorlage mit den beiden Beschreibungszeilen sowie der Ziel-URL mit. Titel und Zielseite werden automatisch generiert. Damit dies so umgesetzt werden kann, muss man es zulassen, das Google die zu bewerbende Seite durchsucht und crawlt.) 

Beispiele_Anzeigenerweiterung

Beispiel_Sitelinks PUMA

Die Schaltung der Anzeige konnten wir in 3 Bereichen vornehmen lassen (Youtube Suche, Youtube Videos und unter Einbeziehung des Google Displaynetzwerkes). Wir hatten uns bei unserer fiktiven Kampagne auf die "Youtube Videos" beschränkt.

Nach dem Kampagneneinstellungen gehen wir nun eine Ebene tiefer zu den Anzeigengruppeneinstellungen. Dafür wählen wir zuerst den Anzeigengruppennamen.

Dann können wir direkt eine Anzeige erstellen. Hierbei sind verschiedene Formate möglich, z.B.
  • Textanzeige
  • App/Anzeige für digitale Inhalte
  • Mobile WAP-Anzeige
  • Anzeige mit Produktinformationen. Angebot:Werbung
  • Dynamische Suchanzeige
Bleiben wir bei einer Textanzeige. Hier haben wir die Möglichkeit unsere Überschrift, URL, etc. zu wählen. Praktischer Weise wird uns direkt daneben bereits eine Vorschau der Anzeige gegeben:

Anlegen einer Google-Anzeige_Adwords
Im Anschluss können Keywords bestimmt werden, dafür nutzt man wieder den Keyword-Planer.

Nach dem Speichern kann man natürlich wieder in die Anzeigen reingehen (über Kampagnen). Es ist möglich für eine Anzeigengruppe mehrere Anzeigen zu erstellen. Dabei können sogar die Einstellungen der bereits erstellten Anzeigen genutzt werden, um nur die Änderungen durchzuführen bspw. im Anzeigennamen, sodass die anderen Einstellungen erhalten bleiben. Der Übersichtlichkeit halber kann es sinnvoll sein, mehrere Anzeigen oder auch Anzeigengruppen zu erstellen. Zusätzlich hat man so dadurch die Möglichkeit die Reportings zu den einzelnen Anzeigen zu analysieren, um so Optimierungen vornehmen zu können.

Zum Verständnis der Kontostruktur hier Beispiel:

Kontostruktur:

Grundsätzliche Struktur (immer gleich): 
1. Konto
    2. mehrere Kampagne (Sprache, Ort, Budget, Schaltungsmethode...)
        3. mehrere Anzeigenruppe / Ausrichtungsgruppe
            4. mehrere Anzeigen

Beispiel Struktur:
Eine Kampagne
    1 Anzeigengruppen (Keywords über Sorten) mit jeweils 2 Anzeigen (Formulierung allgemein)

+honig sorten


Sorten-Ebene
Anzeigengruppen (Klee) - jeweils 1-2 Anzeigen
Anzeigengruppen (Biene) - jeweils 1-2 Anzeigen
Anzeigengruppen (Bio) - jeweils 1-2 Anzeigen
Anzeigengruppen (Thymian) - jeweils 1-2 Anzeigen

Anzeigenrang: max. CPC und dem QF (1-10)

Jedes Konto kann mehrere Kampagnen beinhalten, jede Kampagne mehrere Anzeigengruppen und final kann es dann mehrere Anzeigen geben.

Faktoren für die Positionierung im Ranking

Wie erreiche ich nun eine möglichst hohe Positionierung (optimalerweise Platz 1)? Dafür gibt es verschiedene Faktoren zu berücksichtigen, z.B.
  • Maximaler Klickpreis
  • Qualitätsfaktor (wie gut ist die Seite/Anzeige)
  • Anzeigenrang: max. Klickpreis und Qualitätsfaktor
    • d.h. wenn das Gebot bei 3,80€ liegen sollte, kann ich eventuell über eine qualitativ hochwertige Anzeige erreichen, dass ein Gebot von 2€ bereits ausreichend ist um eine hohe Platzierung zu erhalten. 
Anzeigenrang auf der SERP ermittelt sich aus dem max. CPC und dem QF (Qualitätsfaktor) 1-10.
Qualitätsfaktor besteht z.B. aus: Kontoführung, Formulierungen der Anzeige, Anzahl der erzeugten Klicks. Wenn man einen hohen QF hat, so wird man nicht den max. Bietpreis zahlen und gelangt dennoch auf Platz 1 auf der SERP. Sollte ich keinen QF haben, so kann ich die Anzeigenplatzierung nur über die Höhe des Bieterverfahrens regeln.

Falls ich meine Anzeige überprüfen möchte, kann ich dies über Adwords / Tools / Anzeigenvorschau und Diagnose tun. Gehe ich diesen Weg, generiere ich keine Impressionen. Würde ich meine Anzeige einfach über Google suchen, würde ich gesperrt werden und zusätzlich evt. Kosten per Impression/Klick erzielen, d.h. meine Ergebnisse verzerren.

Natürlich kann ich mir den Qualitätsfaktor  meiner Anzeigen einblenden lassen. Dies funktioniert über Kampagne / Keywords/ Spalten / Spalten anpassen  --> Hier: Attribut / Qualitätsfaktor hinzufügen.


Kampagnenplanung mit Keywordoptionen per Adwords:

Honig --> überlege mir Honigsorten (Frage, auf welche Seite will ich den User ziehen? ... Will er vielleicht Honigsorten auswählen? --> Je spezifischer ich bin, desto besser und gezielter kann ich meine Kampagne ausrichten.)
Beispiel:
Kampagne: Honig Sorten
1. AZ Gruppe: Klee-Honig
2. nächste Ebene: AZ --> Unser komplettes Sortiment auf einen Blick (2 Textzeilen: Titel, angelegte und Ziel URL)
3. Keywordoptionen: Klee-Honig Sorten (z. B. mit Siegel, Bio, Klee, Honig bestellen, ...)
4. Keyword ausschließen: Bienen, Akazien, Medizin
5. Kundentypen: med. "Homig als schnelle Lösung bzw. Heilung)
6. Kundentypen ausschließen: Produzenten, Techniken, ...
7. Erweiterungen der AZ via lokaler Infos, Google+, Ort, Tel., Apps. Sitelinks (kleine = einzeilig und große), Bewertungen
8. Orte --> selber ausrichten und auch ausschließen (kleine oder größere Gebiete) ... Honig Sorten in Berlin (Ausschluss, da ich Leute in Berlin anders bewerte, da hier alle nur noch vegan leben)

140527_Onpage_Optimierung_IT

Liebes Tagebuch, ...

Nachtrag vom 27. Mai:


OnPage Optimierung

Die OnPage Optimierung bezieht sich vor allem auf die Ergebnisse, die in der organischen Suche gezeigt werden, d.h. meine Website muss also so gut sein (Content, indexierte Seiten, etc.), dass Google mich auch gut finden kann.

Wie findet Google raus, wie gut meine Website ist? Dafür wird mit sogenannten Spider oder Crawler gearbeitet (https://support.google.com/webmasters/answer/1061943?hl=de). Websites wie Webconfs (http://www.webconfs.com/search-engine-spider-simulator.php) bieten die Möglichkeit Websiten zu überprüfen. Hierfür muss einfach die gewünschte URL eingegeben werden.

Was lesen diese Spider aus?
  • Content
  • Bilder können sie nicht auslesen, daher ist viel Text wichtig (Stichwort: Density)
  • Meta-Infos (Keywords / Description)
  • Links (ausgehend und eingehend bzww. extern und intern)


Um zu verstehen, wie und wo ein Crawler oder Spider diese Informationen findest, muss man die HTML Struktur der Website betrachten:


Grundsätzlicher Aufbau: HTML besteht aus 2 Teilen:

<head>  Infos nur für die Suchmaschine
</head>

<meta> Metainfos für Crawler, z. B. Titel mit bis zu 6 Keywords (erhöht Density)
<meta name="keywords" content="Keyword1, keyword2...bis 6-Begriffe" /> für Google uninteressant aber für andere Suchmaschinen relevant

Snippet: Tools zur Überprüfung http://www.seomofo.com/snippet-optimizer.html
<meta name="title" content="Keyword" /> 
<meta name="description" content="Keyword" />


Autor:
<meta name="author" content="Dein Name">
<a href='https://plus.google.com/ProfilID' rel='author'>Über mich</a>
<a href='https://plus.google.com/SeitenID' rel='publisher'>Google+Seite</a> |


--> Google+ Profile sind auch wichtig für die Websites, denn wie wir ja bereits wissen, werde die Autoren immer wichtiger für Google und Google pusht auch Marken.

<body> Infos für die Suchmaschinen und den User, d.h. alles was man sieht auf einer Seite.
Besteht aus Überschriften (keywords)
h1 = Headline 1 = darf nur 1x vorkommen (--> daher Keyword); Titel meiner Site
h2= Headline 2 = darf mehrmals vorkommen, die wichtigste Überschrift, daher unbedingt Keywords einfügen (artikelspezifisch, daher Google relevant). (Bsp.: Kleehonig - alle Zutaten; Kleehonig, wie ihn andere sehen; Kleehonig - ein Exkurs ... integriere somit mehrere h2 in meinen Text)
h3 - h6

</body>

Was gibt es zu beachten:
Die Gestaltung von Seiten (Farben, Schatten, Schrifttypen, ...) (CSS) sollte ausgelagert werden, damit die Seite schneller ist bzw. der Crawler sie schneller analysieren kann. Ziel ist es u.a. ein sauberes und modernes HTML zu gewinnen. Diverse Website-Checker ("saubere Programmierung") bieten hier Hilfestellung: seitenreport.de od. validator.w3.org oder woorank.com.
Außerdem sollte eine URL nur max. 5-6 Ebenen tief sein & das Keyword möglichst weit vorne platziert sein. Beachte: Bei der URL (vor allem Erstellung von Permalink): In den URL bedeutet "-" = "und/oder" für die Suchmaschinen und "/" die Trennung von Wörtern.

Wie finden wir nun raus, wie gut oder schlecht unsere Seite ist? Dafür gibt es SEO Tools wie bspw. Seitenreport.de. Hier können wir unsere Website eingeben und erhalten einen kostenlosen Bericht (Traffic, Klicks, Aufrufe, Social Media Scanning ... alles wird gezählt) zur Website mit Bewertung einzelner Rankingfaktoren. (Alle Kriterien gelten natürlich auch für die mobile Version.) Im folgenden eine Übersicht einiger Rankingfaktoren:


  1. Technische Struktur
    • Bewertung, ob HTML oder CSS Fehler vorliegen. Zudem Bewertung von Spaghetti-Codes oder ausgelagertem CSS
  2. Suchmaschinen, Verzeichnisse und SEO
    • Informationen zum Google PageRank, indexierten Seiten sowie Backlinks
    • Robots, mit einem robots.txt kann ich dem Crawler mitteilen, welche Inhalte meiner Website nicht relevant für die Suchanfragen sind. Ich versuche ihm also quasi zu "verbieten", dass er bestimmte Dinge indexiert. Allerdings muss man dazu sagen, dass der Crawler sich das trotzdem anguckt, wenn Google das gerne möchte.  Dafür würde ich dann
      • #robots.txt
        • User agent:*
        • Allow:/Images
        • Disallow:/Wp/comment/
        • Disallow:/admin (erlaube Google nicht, in meinen Adminbereich einzusehen)
        • Disallow:/wp-login/
    • Sitemap
      • Website/Server/Verzeichnisse:
        • Ordner "meine Website"
          Ordner "CSS"
          Ordner "Images"
          Ordner "Admin"
    • Gültige Fehlerseite
    • Douplicate Content
    • Interne & Externe Links
    • Meta-Descriptionund Meta-Keywords --> ganz wichtig für das Snippet
  3. Keywords
  4. Social Media
    • Likes bei Facebook, etc.
  5. Performance und Datentransfer
    • Antwortzeiten und Ladezeiten der Website: umso schneller die Seite lädt, umso besser
  6. Benutzerfreundlichkeit
    • Titel-Attribute mit Mehrwert / Alt-Attribute bei Bilder: Wie bereits oben steht, können die Crawler Bilder nicht lesen. Allerdings kann man den Bildern ein Titel geben, den der Crawler dann sehen kann bzw. dem Bild einen Titel geben, sodass der User wenigstens die Bildbeschreibung sieht, wenn sich das Bild nicht lädt
    • Individuelle Fehlerseite:  Sollte ein Link nicht funktionieren, erhält der User einen vorher hinterlegten Text wie "Ups.. das ist wohl was schief gelaufen" angezeigt, nicht nur einen Fehlercode, den der User im Zweifel nicht versteht
  7. Zugriffzahlen
    • AlexaRank für Deutschland/Österreich/Schweiz
    • Seitenaufrufe / Aufenthaltsdauer und Absprungsrate
  8. Inhalte
    • Referenziert in Wikipedia
    • Textgütebewertung in Form eines Flesch-Wertes
  9. Sicherheit und Datenschutz
    • Wird die Anonymisierungsfunktion von Google verwendet, Verbindung zu Facebook, Plugins, Links zu Malware oder Spam, etc.
  10. Reputation
    • Angaben zum Web of Trust oder Alexa Review
  11. Server- und Domaindaten
  12. Im Anschluss werden sogar noch spezifische Verbesserungsvorschläge für die Website ausgegeben
Eine Übersicht findet sich auch unter http://webtalk-blog.de/wp-content/uploads/2013/10/rankingfaktoren_google.jpg.
Außerdem: https://www.youtube.com/watch?v=_FxsDywrADA oder https://www.youtube.com/watch?v=PM9TTbYJ1Ck.


Welche Parameter kann ich nun bearbeiten, um das Ergebnis meiner Website zu verbessern?
Machen wir dies am Beispiel unseres Blogs:

1. Permalink: Wir können im Post selber (am besten vor Veröffentlichung) einen benutzerdefinierten Permalink anlegen, um dann unsere URL selbst zu bestimmen und so die Möglichkeit zu nutzen unsere Keywords mit einzubringen.


2. Beschreibung für Suchmaschinen einstellen. Dies geht auf Ebene des Post sowie auf Ebende des Blogs selbst. Hierfür unter Einstellung / Sucheinstellung/Meta Tags die Beschreibung aktivieren und formulieren. Bzw. im Post auf der rechten Seite einfügen.
Wie immer: Keywords, Keywords, Keywords - aber bitte kein Keyword-Stuffing!
3. Fehler & Weiterleitung
Benutzerdefinierte Seite für "Seite nicht gefunden". Hier kann man etwas nettes reinschreiben wie: "Ups... das hat leider nicht geklappt. Versuch es doch bitte nochmal auf der Hauptseite".
Benutzerdefinierte Weiterleitung, d.h. voreingestelle Weiterleitung zu Links. Besonders auch für den Fall, dass wenn man einen Permalink für einen bereits veröffentlichen Eintrag erstellt, da der alte Link somit nicht mehr erreichbar ist. Beachte: URLs sind für die Ewigkeit, d.h. nur löschen oder verändern des Links reicht nicht, die alte URL schwirrt trotzdem im Netz rum.
4. Benutzerdefinierte Crawler und Indexierung. Hier kann man Robots für den Crawler einstellen, allerdings sollte man dafür die Blogstrukturen kennen.
Robots.TXT
www.meineWebsite.de/meineURL
www.meineWebsite.de/search/meineURL ... doppelter Content, erlaube bei search keine Einsicht
www.meineWebsite.de/meinetoteURL ... integrieren der gelöschten Seite, da tote Seiten sonst im Netz kursieren (URLs sind für die Ewigkeit) oder ich verweise von toter Seite auf aktuelle Seite (Wochenangebote Tchibo --> verweise von ausverkauftem Scannerangebot auf ScannerÜbersicht).
5. Benutzerdefinierte Robots-Header-Tags
Ich kann dem Robot z. B. sagen, dass er etwas nicht in den Index setzen soll (Content nicht in den Index verpacken; dagegen Startseite stets in den Index).
6. Titel und Alternativtexte bei Bildern: Generell sind ja Post ohne Bilder nicht so toll - (ich machs trotzdem so weiter) - normalerweise fügt man ja die Bildunterschrift ein, aber man kann auch Bildeigenschaften einfügen. Bei den Bildeigenschaften sind Titeltexte sowie Alternativtexte einzufügen. Der Titeltext ist der hinterlegte Text, den die Suchmaschinen sehen (daher: Integration Keyword). die Alternativtexte sind die Texte, die angezeigt werden, falls das Bild nicht geladen werden kann oder aber Blinden ausgelesen wird.

140528_Webmaster_Tool_IT

Liebes Tagebuch, ...

Nachtrag vom 28.05.:

Ein kurzer Überblick zum Webmaster Tool



Ein kurzer Rückblick auf die Faktoren, die das Google Ranking beeinflussen
  • Anzahl indexierter Seiten
  • Ladezeiten, unwichtige Dinge auslagern
  • Alter der Domain
  • Sitemap sollte vorhanden sein
  • H2 Überschriften, darfs mehrmals geben
  • Traffic der Seite
  • Seite in Lokalen Verzeichnissen eingetragen
  • Social Media Monitoring
  • robots.txt
  • Titel und Description
  • Multimedialität sollte gegeben sein
  • Bilder sollten Beschreibungen und Titel haben
  • Anzahl seiteninterner Links
  • Keine toten Seiten, z.B. nach Einpflege von Permalinks
  • Favicon (kleines Icon/Symbol, das z.B. in der URL gezeigt wird)
  • kein doppelter Content
  • Alle Kriterien sollten auch auf der mobilen Version verfügbar sein.

Webmaster- Tool

Dabei handelt es sich um ein zentrales Tool für die Onpage / Offpage Optimierung. Alle eigenen Domains sind dort einpfleg- bzw. steuerbar.

Loggt man sich im Webmaster-Tool ein, erhält man zunächst eine Übersicht aller verknüpfter Website.
Im Bereich "Darstellung der Suche" (= Suchergebnis bei Google)haben wir die folgenden Einstellungsmöglichkeiten:

1. Strukturierte Daten: Hierbei bearbeiten wir Inhalte unsere Website indem wir Google bei der Interpretation dieser helfen. Die Interpreatationen nun Google dann um sog. Rich Snippets in den Suchergebnissen einzublenden.
(https://support.google.com/webmasters/answer/99170?hl=de)
Wenn wir ganz fit in HTML sind, können wir das natürlich selbst machen (<spam itemprop = author> damit sage ich, das ist der Autor) oder uns hier (http://schema.org/) Hilfe suchen, ...
aber wir nutzen lieber einen Rich Snippet Generator.

Der Rich Snippet Generator vereinfacht uns das Leben. (http://rich-snippet-generator.de/schema-events.html)  - Was können wir dort tun? Als HTML-Anfänger können wir den Rich Snippet Generator nutzen, um uns HTML-Codes zu generieren, die wir dann ganz einfach in unsere HTML Text im bspw. Blogeintrag kopieren können.
Wir können Rich Snippets für die folgenden Daten einstellen: Personen, Erfahrungsberichte (damit das angezeigt wird, mind. 30Bewertungen und 3,5 als Bewertungsdurchschnitt), Produkte, Events, Rezepte, Organisationen, Filme, Konzert mit Datum.

Das ganze könnte dann so aussehen, wie mein vorheriger Event-Eintrag:



Warum machen wir das? Damit uns bei der Google Suche nach z.B. Event Offpage Optimierung direkt unser Eintrag bei Google angezeigt wird mit Datum, Name, Ort,etc. - Toll!

Über den folgenden Link kann  man sein Snippet (URL oder HTML Code) überprüfen: http://www.google.de/webmasters/tools/richsnippets


Exkurs: Für die Snippets sind ja auch immer Verlinkungen zu Google+ schön, sodass hier auch nette Snippets in den Suchergebnissen angezeigt werden. Dafür haben wir den folgenden (natürlich vorher angepassten) HTML Code in unseren Blog (Vorlage / HTML bearbeiten) in den Header (d.h. wird auf jeder Seite angezeigt) eingefügt:



Das sieht dann wie folgt (oben Links) in unserem Blog aus:


Ein Test-Tool für strukturierte Seiten: http://www.google.de/webmasters/tools/richsnippets?q=uploaded:8004fa7165aef6d694a2f40606a9901f


2. Data Highligher: Der Data Highlighter ist ein Hilfsmittel zur Markierung von Inhalten. Er hilft, meine Artikel zu strukturieren. Dabei bestimmen wir bspw. für einen Blogeintrag, was das Datum ist, was ein Bild ist, was Überschriften sind, etc. Nicht all diese Inhalte werden bei Suchanfragen angezeigt.

HTML-Verbesserung: Anzeige von Fehlern im HTML Codes, wie z. B. doppelte title Tags.

Sitelinks: Automatisch generierte Links, die unter den Suchergebnissen für die Website erscheinen können. Man kann bis zu 100 Sitelinks-URL abwerten, d.h. verbieten, dass die Unterseite als Sitelink auftaucht. Kann zum Beispiel für die Bereiche Impressionen oder Datenschutz sinnvoll sein. Ich kann also verbieten, dass ein Google Ergebnis zur Unterrubrik Honig Datenschutz oder Impressum auftaucht.
Durch das Anlegen von strukturierten Daten kann ich Klicks generieren. Sehen wir uns einen solchen
Aufbau eines Google-Suchergebnisses einmal an:
Titel/Snippets (Beschreibung)/Sitelinks (Shirtinator.de, Frauen Shirts, Männer Shirts, ... aber auch Impressum oder Datenschutz)/Suche/URL/Ereignis Rich Snippet/Breadcrumps (Vergabe einer Kategorie)/Produkt Rich Snippet (mind. 30 Bewertungen bzw. Bewertung von 3,5)/Infos zum Autor. Zudem lassen sich Bilder hinterlegen und als Artikel kennzeichnen.

Suchanfragen


Suchanfragen: Hier werden die häufigsten Suchanfragen sowie die häufigsten gezeigten Unterseiten/Seiten angezeigt. Man könnte jetzt z.B. die häufigsten Suchanfragen nutzen, um Keywords abzuleiten. Außerdem kann man so analysieren, ob die Suchenden die Anfragen im Web, Mobil oder Bild starten, wo sie sich regional aufhalten und wie die Zugriffszahlen sind. Dies hilft mir dann z.B. um beliebte Suchbegriffe evtl. in meine Keywords einzubauen oder per Online PR eine Artikelserie zu starten


Links zu Ihrer Website : Häufig werden, um Verlinkungen herzustellen, einfach Links in Websiten einfügt. Das ist natürlich nur erwünscht, wenn auch eine Relevanz vorliegt. Hier findet sich auch die Schnittstelle zur Offpage Optimierung.
Bsp. Zalando: führt die Top-Marken auf, wie z. B. Adidas. Der hohe PageRank von Zalando überträgt sich auf die Top Marke ... oder die beliebtesten Artikel ... oder diese Artikel haben die User auch gekauft ... --> es kann also auch jede interne Verlinkung gepusht werden, die weniger gefragt ist, wie Gummistiefel oder Abendkleider. 

Interne Links:
Interne Links sind Verlinkungen innerhalb meiner Website, wenn ich von einer Unterseite zu einer anderen Seite verlinke.

Manuelle Maßnahmen:  Hier werden Warnungen erteilt, wenn Google bzw der Google Pinguin oder der Google Panda festgestellt haben, das Linkfarmen erstellt wurden oder es Seitenfarmen (habe ich Content allein für Suchmaschine erzeugt und hierzu diverse Blogs gegründet --> Keyword Stuffing; aufspürbar durch Abspringraten) gibt. Hier erfolgt die Abmahnung bzw. Aufforderung der Korrektur.



Google Index


Indexierungsstatus: Hier findet sich eine Übersicht meiner indexierten Seiten. Wenn ich sehe, dass die Anzahl meiner indexierten Seiten höher als die Anzahl meiner tatsächlich geschriebenen Seiten ist, dann sollte ich hier mal nachprüfen, woran dies liegen könnte.

Gründe können z.B. sein, dass die Seite mit und ohne "www" aufrufbar ist, oder über "http" sowie "https" oder das Trackingparameter bzw. Session IDs daranhängen.  Mehr Informationen hierzu sowie zur Lösung über sogenannte Canoncial Tags, d.h. Festlegen einer bevorzugten Domain/Seite,  findet man hier: http://www.canonical-tag.de/



Content Keywords: Hier eine Übersicht der Keywords, die man innerhalb seines Content nutzt mit Angabe der Häufikeit und Variationen, die man nutzt.  Hier könnte ich z.B. auch feststellen, ob ich Wörter häufig falsch schreibe und dies korrigieren. Oder aber ich nutzt dies, um analysieren, ob ich ggf. mehr Synonyme einsetzen sollte, um auch weitere Keywords in meinen Content einzubauen.

URL´s entfernen:
Hier kann man bestimmte URL´s entfernen, weil man z.B. einen Permalink geändert hat und die alte URL nur zu einer toten Seite führt. Diese "Broken Links" werden dann gelöscht. Alternativ kann man aber natürlich auch Weiterleitungen einrichten. 

Crawling


Crawling-Fehler: Hier wird angezeigt, wenn Fehler auf Desktop bzw. Smartphone Darstellung passieren. Diese sollten dann natürlich korrigiert werden; oder Antwortcode 404 (tote Seite).


Crawling-Statistiken: Kurzer Überblick, wann der Google Crawler vorbei kam, wie viele Kilobytes er runtergeladen hat und wie lange das gedauert hat (--> Pagespeed).

Abruf wie durch Google:
Indexierung anstoßen (wenn Abruf erfolgreich, dann Versand an Index).

Blockierte URLs: Hier kann man eine robots.txt anlegen, wenn ich z.B. nicht möchte, dass der Inhalt einer bestimmten Seite bei den Suchergebnissen angezeigt wird. Sagt den Suchmaschinen, wie sie scrawlen sollen.


Sitemaps: Sitemaps sind Datenbanken über URLs im Netz. Wenn man eine Bloggerseite verknüpft hat, kann man hier einfach "atom.xml" hinzufügen und die Sitemap wird automatisch generiert. Auch regelmäßige Aktualisierungen werden anschließend hier wahrgenommen. 

URL-Parameter: Hier sind beispelsweise Trackingfunktionen / IDs zu hinterlegen. Dann kann die Website effizienter gescrawlt werden.

Google Labs


Autorenstatistik: Hier könnte ich sehen, wer meine besten Autoren sind bzw. welche Artikel am häufigsten geklickt werden. Macht natürlich nur Sinn, wenn es mehrere Autoren für eine Seite gibt. Aber wenn ich weiß, dass die Artikel eines bestimmten Autoren besonders beliebt sind, kann ich diesen Autoren besonders pushen, damit meine Website noch mehr Klicks generiert.


Andere Ressourcen: Hier gibts dann nochmal einen Überblick zu hilfreichen Tools wie etwa dem Test-Tool für strukturierte Daten, Email Markup Tester, Google Merchant Center, Pagespeed Insights, Places, etc.

Für alle wesentlichen Themen zum Webmaster Tool empfiehlt sich das folgende pdf: http://www.trustagents.de/docs/google-webmaster-tools-e-book-stephan-czysch-trust-agents-v3.pdf



Exkurs: Blog löschen via
1.  Blog löschen         benutzerdefiniert robot.txt
2.  Für Suchmaschine ausblenden
3.  Sucheinstellungen --> no Index

Exkurs: Tipp für kostenpflichtigen Blog = wordpress.org
Vorgehen: Hole mir von strato.de zwei Datenbanken für je 2,99, um dann mit wordpress.org zu starten

140530_Offpage_Optimierung_IT

Liebes Tagebuch,

Nachtrag vom 30.05.:

SEO Offpage Optimierung

Grundsätzlich handelt es sich hierbei um externe Links, d.h. Links von anderen Seiten (starke vertrauenswürdige -trust- Partner), die auf meine Seite verweisen. Diese Links sind so wichtig, weil sie für ein gutes Ranking der Website relevant sind und einer der zentralsten Rankingfaktoren darstellen. Die Offpage Optimierung hat eine starke Verbindung zu den Bereichen Online PR und zum lokalen Marketing, d.h. wir sollen vor allem hier versuchen starke Partner zu finden. Google fördert lokale Bezüge, d.h. ganz wichtig, dass wir hier Backlinks bekommen. Gut sind natürlich regionale oder städtische Backlinks, am liebsten von Websites, die bereits Vertrauen aufgrund ihres Alters genießen. Partner sollten daher gerne auch aus dem gleichen Land kommen und die gleiche Sprache haben, da auch dies uns bei den regionalen Bezügen gibt. Lokale Seiten haben zudem häufig eine hohe Authorität.

Ich habe also entweder starken Content oder ich werde aktiv und hole mein lokales Marketing raus und verlinke mich mit Hamburg.de oder Meinestadt.de, also lokalen starken Seiten.


Nicht jeder Link ist allerdings ein guter Link, es kann also sein, dass eine Website mit sehr viele Backlinks schlechter gewertet wird als ein Website mit wenigen dafür qualitativen Links --> Wir müssen also anfangen die Qualität von Links zu bewerten.  Es gibt verschiedene Kriterien, die einen guten von einem schlechten Link unterscheiden. Die Qualität des Links wird unter anderem gemessen an vergebenem Attribut (do follow/no follow), Themenrelevanz bzw. Themennähe, Platzierung innerhalb der Seite, regelmäßiges Checken des Partners, etc.:

1. PageRank: Wie in vorherigen Beiträge bereits erläutet, ist der PageRank ein Google-Begriff, der die Wertigkeit von Websites bemessen soll. Dafür wird die Anzahl und Qualität der Links gemessen, die auf meine Website verweisen. Bewertet wird das mit einem Zahlensystem von 0-10, wobei ein PageRank besser ist, je größer er ist.
Der PageRank kann vererbt werden. Ich kann allerdings auch Links nutzen, ohne das der Crawler diese berücksichtigt. Durch ein "rel=nofollow" Attribut sagen wir dem Crawler, dass er einem Link nicht folgen soll (rel=dofollow öffnet er entsprechend den Kanal --> Strategie kleiner Start-Ups, die mit E-Mail Marketing versuchen, Partner zu generieren).

2. Content: Es sollte darauf geachtet werden, dass der Link auch zu dem Content passt. D.h. das nicht ein Link zum Seo Marketing auf einer Seite für Keksrezepte platziert wird. In dem Content sollte es möglichst bereits um das verlinkte Themen gehen. Wörter und Texte mit denen die Website verlinkt wird, sind für das Ranking von großer Bedeutung. Linktexte erleichtern Suchmaschinen das Thema der Website besser zu verstehen. Im Linktext enthaltene Keywords sind also sehr wichtig für Suchmaschinen. Links, die auf meine Website verweisen sollten also immer ein odere mehrere für die Seite wichtige Keywords enthalten. Nicht zu vergessen ist, dass der Domainname der Website ein oder zwei Keywords enthalten.  Tipp: Linkvorlagen oder Linktextvorschläge für die Seite veröffentlichen, die anderen dann für die Verlinkung nutzen können.  Aber die Texte sollen variieren, sonst duplicate Content.

3. Platzierung im Content: Eine Platzierung direkt im Content wird generell höher gewertet als eine Verlinkungen in der Sitebar / Sidewide, obwohl die Links in der Sidebar / Sidewide ja eigentlich öfter angezeigt werden, hier aber keine Priorität ersichtlich ist. Links im Content werden als themenrelevanter erachtet. Suchmaschinen erkennen den eigentlichen Text bzw. Content als wichtigsten Bereich der Website.
 
4. Linkalter: Alter des Backlinks ist wichtig für das Vertrauen von Google. Man kann sich natürlich eine länger bestehende Domain mieten oder kaufen, aber der PageRank von Google wird mittlerweile nur alle 6-12 Monate aktualisiert, daher bringt das nicht so viel.

5. Anzahl der Links: Die Anzahl der Seiten, die mit Backlink auf Ihre Website verweisen ist ein wichtiger Rankingfaktor. Hier müssen wir auf Linkpopularität, Domainpopularität und IP-Popularität aus sein, da ich idealerweise von möglichst verschiedenen Partner tausend Links haben möchte:

  • Linkpopularität: Linkanzahl, die auf bestimmte Website verweisen. Hierzu zählen auch Unterseiten der Website, die auch auf meine Website verweisen.
  • Domainpopularität: Anzahl aller Domains, die auf eine Webseite verweisen. Auch wenn eine Website mehrere Unterseiten hat, wird hier nur einmal der Link gezählt.
  • IP-Popularität: Anzahl aller IPs, die auf eine Website verweisen. Alle Links, die von einer IP-Adresse auf mich verlinken, werden nur als ein Link gezählt.
Die Natürlichkeit von Links ist ganz wichtig. Das bedeutet für uns ein gutes Verhältnis von Werbelinks und organischen Links, Abwechslung bei der Platzierung der Links sowie gute und abwechslungsreiche Ankertexte der Links, die möglichst nicht zum Duplicate Content führen und auch kein Keyword Spamming darstellen.

6. Autorität der Links: Echte Autorität liegt vor, wenn eine Website vertiefende Informationen zu einem Thema hat. Wenn eine Website, der eine echte Autorität zugesprochen wird, auf mich verlinkt, wird dies höher gewertet als eine Website, die über tausende Themen schreibt. Einfach erkenntbar ist Autorität daran, dass die Links, die eine Website hat, weiterführende Informationen zum Content haben. http://de.semrush.com/info/www.essen-und-trinken.de bzw. http://de.semrush.com/info/www.essen-und-trinken.de+%28links_hostname%29 für Backlinks Berichte.

7. Themenrelevanz: Suchmaschinen stufen Themenrelevanz als wichtigen Faktor ein und bewerten Themenrelevant positiv, d.h. höher im Ranking. Also immer darauf achten, dass die Backlinks von themenverwandten Websiten / Content kommt.

8. Linkaufbau: Der Linkaufbau sollte unbedingt natürlich sein. Wenn eine neue Website in kurzer Zeit sehr viele Backlinks generiert, wird dies von Google abgestraft, weil es als unnatürlich wird. Was sollte man also beim Linkaufbau beachten? Die Links sollten langsam und kontiniuerlich mehr werden. Die Links sollten vers. platziert sein, z.B. im Text, im Footer, etc. Sind sie nur im Footer, sieht das schnell gekauft aus. Ebenso beachten, dass die Links nicht alle von der gleichen Domain oder IP-Adresse stammen. Versuchen die Qualität der Website und der verweisenden Links. Linktexte sind natürlich immer ähnlich, weils ja um ein Thema geht, aber nicht gleich sein.
Links auf der Startseite wirken stärker als auf Unterseiten, trotzdem sollte man die Startseite nicht völlig mit Links zukleistern.

Verhältnis von eingehenden und ausgehenden Links sollte ausgeglichen sein. Reiner Linktausch (reziproke Verlinkung) ist nicht zielführend, weil Suchmaschinen diese Muster erkennen.

Interessant sind auch Co-Citation und Co-Occurenz. Unter der Co-Citation verstehen wir, dass wenn Seite A immer wieder auf die Seiten B und C verlinkt, wird die Suchmaschine irgendwann denken, dass die Seiten B und C irgendwie zusammengehören, sodass die Seiten auch stärker zusammen wachsen. (Wird dann nur mal B erwähnt, wird C automatisch mit erwähnt.) Bei der Co-Occurenz wird das Umfeld (Themengebiet) des Links betrachet.
Merke: Verlinkungen brauchen Themenrelevanz.

9. Webkataloge: Wenn die Seite noch ganz neu ist und einen PageRank von 0 hat, dann man sich leicht Backlinks verschaffen, wen man sich in Webverzeichnissen anmeldet. Webverzeichnisse: Empfehlenswet ist DMOZ, da viele Suchmaschinen DMOZ positiv bewerten, da hier ein allgemeiner Nutzen für den User gesehen wird.

10. Weblogs: Hier sind Beiträge thematisch aufbereitet und chronologisch sortiert. Hier kann man Kommentare hinterlassen, was eine Interaktion und Verlinkungsmöglichkeit fördert. Weblogs haben durch die vielen Verlinkungsmöglichkeiten vergleichsweise hohe PageRanks bzw. eine hohe Autorität. Man kann also seine Website auch unterstützen, indem man zusätzlich einen Blog führt und auf seine Website verlinkt.

11. Linkkauf sollte mit Vorsicht zu genießen sein. Es ist abzuraten von Billigangeboten, die ein sehr hohes Ranking versprechen. Linkkauf kann unter Umständen sinnvoll sein. Eine andere Möglichkeit Links indirekt zu kaufen ist das Sponsoring oder Spenden, so lassen sich auch Backlinks gewinnen.

12. Weitere externe Rankingfaktoren
Alexa Rank: Der Rank beurteilt die Qualität einer Seite aufgrund deren Traffic. Der Alexa Rank ist wichtig für Suchmaschinen, je höher der Rank ist, desto besser wird Sie von der Suchmaschine bewertet.
Freshness: Aktualität des Contents
Entwicklung Traffic, Userverhalten




Will ich also im Netz jemanden darstellen, benötige ich dazu verschiedene Netzwerke mit vielen unterschiedlichen Domains. Durch opensiteexplorer.org kann ich einsehen, auf welchen Pages gut verlinkt wird.


Linkstrategie in Kurzfassung:
Auf was ist zu achten:
IP/ Link/ Domain-Popularität: Auf Natürlichkeit achten bei der Anzahl der Links (eigehend und ausgehend), Quellen, Zeit, Ort, Attribute)
Domain-Trust: Backlicks von Webseiten, die bereits das Vertrauen / Glaubwürdigkeit der Suchmaschinen besitzen, vor allem durch Themenrelevanz
Domain-Authority: Google vergibt der Seite eine Bedeutung / Wichtigkeit im Netz
Seiten mit guten Datenbanken nutzen. d.h. Wikis, DMOZ und die lokalen Seiten nicht vergessen, da Google diese ja bevozugt!
Auf Trends & Taktiken achten, d.h. kluge Verlinkeugen zu lokalen Anbietern generieren, dafür kann ich evtl. Studien erheben, Veröffentlichungen machen, etc.
Linkhandel  betreiben (Emailmarketing, Telefonmarketing, etc.)
Badlinks vermeiden und Seiten überprüfen, ob sie verbrannt sind (Penguine www.linkresearchtools.de/tools/dtox). Diese Badlinks sollte man versuchen loszuwerden, indem man mit den Partner komminuziert Wenn nichts mehr geht: Löschung der Links bei Google beantragen bzw. Links für ungültig erklären (http://www.google.com/webmaster/tools/disavow-links)

Welche Links will ich also:

  • Links mit hoher Domain/Page Authority
  • Von diesen Domains gerne Do-Follows Links
  • Verschiedene Linkarten (Text, Bild, etc.)
  • Gute und abwechslungsreiche Platzierung im Content
  • Datum (Wann erstellt, welche Häufigkeit, welche Popularität 
  • gutes Verhältnis zwischen inbound / outbound Links

Nach welchen Kriterien beurteile ich Partner?
  • Themenrelevanz, passen die Partner zu meinen Themen? --> auf Popularität achten
  • Partner mit hoher Authorität --> z. B. lokal, mit denen ich meine Kategorieseiten stärken kann
  • Breite der Partner, d.h. verschiedene Kommunikationswege (Blogs, Foren, User, Social Media, etc.)


Wie finde ich Linkpartner: Ich kann auf die Suche nach Linkpartner gehen, dessen Website themenrelevant für uns ist. Diese kann ich über Email Marketing, etc. ansprechen und so versuchen ihr Interesse für meine Website zu wecken und sie von dem Mehrwert überzeugen, sodass sie eine Verlinkung zu meiner Website herstelle.

Wie kann ich meinen Erfolg überprüfen?
Dafür gibt es Tools wie semrush.com, opensiteexplorer.org oder majesticseo.com oder aber den Sistrix Sichtbarkeitsindex (http://www.sistrix.de/frag-sistrix/was-ist-der-sistrix-sichtbarkeitsindex/). Bei dem Sichtbarkeitsindex wird mir meine Sichtbarkeit in der SERP dargestellt, jedoch nicht die einzelne Position meiner Unterseiten, sonder eher ein durchschnittlicher Wert. Hier kann ich den Erfolg meiner Maßnahmen überprüfen und somit sehen, ob ich für Suchmaschinen relevanter werde.
Allerdings ist der Sichtbarkeitsindex kritisch zu betrachten, da nicht der Traffic angezeigt wird und da die TOP 100 Positionen "nur" 250.000 Keywords analysiert werden. D.h. es kann passieren, dass sehr große Unternehmen einen sehr geringen Sichtbarkeitsindex erhalten, obwohl sie eigentlich sehr prominent platziert sind. Bsp. Zalando hat einen Sichtbarkeitsindex von 174,45 und Adidas von 1,46. Grundsätzlich je kleiner der Rank, desto besser. http://de.onpage.org/wiki/Sichtbarkeitsindex


Besser: alexa.com/siteinfo bzw. http://www.alexa.com/topsites/countries/DE. Je kleiner der Wert, desto besser = beliebteste Seiten im Netz (=traffic).



Beispiel:

Ich erstelle nach einem ersten Honigartikel (Kategorieseite)einen zweiten Artikel (auf Detailseite), der wesentlich mehr Aufmerksamkeit/Traffic erfährt, so dass ich Backlinks von fremden Seiten erhalte. Diese Partner weisen eine hohe Natürlichkeit auf und sind themenrelevant unterwegs. Ich kann weitere Kriterien via Alexa/Page Rank/Popularität/Linkarten/Linkattribute anfordern und erhalte so meine Top Pages.
Den Folgeartikel verknüpfe ich nun mit dem ersten Artikel, damit meine schwächere Kategorieseite wächst, da die Leute, die begeistert von meinem zweiten Artikel waren, dieses bestimmt auch vom Erstlingswerk sein werden.
Ergänzend könnte man zum Artikel "Bienensterben = Honigsterben?" interaktiv fragen, ... "Was meinst Du, welche Honigsorte stirbt als erste aus?" ...
So stärke ich auch meine Index- bzw. Startseite. Ideal ist zudem stets ein Mix aus zeitlosen Themen und Trendthemen.
Onpage wird anschließend wieder wichtig --> um Traffic & Präsenz zu steigern.

------------------------------------------------------------------------------------------------------------------------

Typische Klausurfrage Offpage:  Sie wollen Offpage-Optimierung machen. Worauf achten Sie? Was würden Sie tun? Wie bekomme ich gute Linkpartner für mein Unternehmen?

Ich achte bei meinem Vorgehen auf Natürlichkeit und versuche relevante Linkpartner zu finden. Die Qualität von Partnern und Links ist dabei besonders wichtig. Relevante Schritte sind dabei:
1. Partneranalyse. Dabei achte ich auch auf die Backlinkpartner meiner möglichen Partner und überprüfe, ob diese auch für mich relevant sein können. Ebenso kann ich Top-Pages betrachten und dort analysieren, ob die dort vorhandenen Backlinks auch für mich interessant sein könnten.
2. Ich fange an Content zu produzieren, denn es ist natürlich wichtig die Backlinks zu erhalten, weil ander meine Seite gut finden und verlinken wollen. D.h. die Backlinks möchte ich vor allem organisch generieren, nicht rein erkaufen.
3. Ich denke über Linkhandel nach und arbeite aktiv an der Ansprache möglicher Partner über Emailmarketing, Telefonmarketing, etc. und versuche meinen Content möglichst schmackhaft zu verkaufen.
4. Ich achte auf Backlinkvielfalt um Natürlichkeit zu bewahren. Dabei achte ich Domain-Popolarität und versuche Backlinks bei verschiedenen Arten wie Blogs, Foren, Social Media Portalen, Websites, etc. zu platzieren, denn diese Vielfalt schafft vertrauen. 
5. Auch versuche ich die Platzierung der Backlinks möglichst innerhalb des Contents (durch Themenrelevanz) zu generieren. Dennoch muss ich auf ein ausgewogenes Verhältnis achten, sodass auch Links in der Sidebar oder Sidewide sind, obwohl die Suchmaschinen diese weniger bewerten, weil sie davon ausgehen, dass sie nicht so Contentrelevant sind, da sie sich an jeder Stelle der Website befinden. Weiterhin versuche ich ein natürliches Verhältnis zwischen No-Follow und Do-Follow Attributen zu schaffen, sowie unterschiedliche Ankertexte zu erreichen und nicht nur reine Textlinks, sondern evtl. auch Backlinks in Form von Bilder, etc. zu genereiren.
Ebenso zu beachten: Reziproken Linkaufbau vermeiden, da Suchmaschinen diese Muster erkennen. Hier lieber auf Dreiecksbeziehungen setzen.

Interessanter Link für die Offpage-Optimierung: http://www.seo-united.de/offpage-optimierung/linktext.html 



Exkurs --> Googles 200 Rankingfaktoren:

http://www.google.de/imgres?imgurl=http%3A%2F%2Fholykaw.alltop.com%2Fwp-content%2Fuploads%2F2013%2F11%2Fgoogleseo1-700x430.jpg&imgrefurl=http%3A%2F%2Fholykaw.alltop.com%2Fgoogles-200-ranking-factors-the-complete-list-infographic&h=430&w=700&tbnid=Lsl4biYb6MCZfM%3A&zoom=1&docid=8Eo_48cz_vn3YM&ei=bi6MU-GuKcSu0QXI6YGICQ&tbm=isch&iact=rc&uact=3&dur=0&page=1&start=0&ndsp=28&ved=0CGEQrQMwAw









140604_Affiliate_Marketing_II_AdSense

Liebes Tagebuch, ...

zum Abschluss beschäftigen wir uns heute noch einmal mit dem Affiliate Marketing. Ausgangslage: http://www.100partnerprogramme.de/.
Vertrieb im Internet über Affiliate Netzwerke, wie z. B. zanox (indirekte Netzwerke: Publisher sind dort bereits angelegt).
Affiliate Programme können von den Merchants selbst in Kooperation mit eigens ausgewählten Affiliates entworfen werden. Als Alternative bieten sich aber auch Affiliate Netzwerken an, welche den Merchants gegen Gebühr eine große Auswahl an Affiliates bereitstellen. Solche Netzwerke unterstützen beide Partner oft auch in der Kampagnenentwicklung und regeln die Auszahlung der Provisionen. Für einen neu gestarteten Online Shop würde allerdings die Suche von themenrelevanten Affiliates einen großen Aufwand bedeuten. Daher würden solche Unternehmen von der Aufnahme in ein Affiliate-Netzwerk profitieren. Ein solches Netzwerk bringt eine große Anzahl an möglichen Werbeträgern und eine unkomplizierte Kontaktaufnahme zu allen Affiliates im Netzwerk mit sich. Darüber hinaus wickeln die Netzwerke die technischen Abläufe ab und unterstützen das werbende Unternehmen durch eigene Marketingmaßnahmen. Jeder Händler bzw. jedes Unternehmen sollte im Vorfeld eine Kosten-Nutzen-Rechnung aufstellen und abwägen, ob sich die Investitionen in ein eigenes Vermarktungsprogramm im Vergleich zur Aufnahmen in ein Affiliate-Netzwerk lohnen.

ZG oder themenspezifische Partnerprogramme direkt mit dem Unternehmen: z. B. Freiberufler, Studenten, Hypnosekurse, ... muss man jedoch einzeln als Publisher anschreiben bzw. suchen und kann nicht auf ein Datenbank Netzwerk zurückgreifen. Vertrauen in den Merchant, dass dieser alles betrugfrei abwickelt.
Direkte Partnerprogramme (wie partnernet.amazon.de) findet man unter Partnerprogramme --> Top100. (https://partnernet.amazon.de/gp/associates/join/landing/main.html/277-1611804-7431336)
Ohne indirektes Netzwerk mit versch. Merchants, kann ich nun z. B. auschließlich mit Amazon Geld verdienen.
Produktsuche: Honiglöffel (versch. Produkte, wie Löffel aus Olivenholz); Cookie Tracking --> den hinterlegten Link kann ich rauskopieren.
Oder ich erstelle Widgets (kleines Fenster mit voller Funktion, das auf einer Website oder in einem Betriebssystem eingebunden wird), die ich dann als HTML Code in Gadgets einfüge:


Kann auch weitere Produkte hinzufügen, wie Bücher oder Imkerhüte.
Tipp: Saisonale Bedingungen ausnutzen.



Man unterscheidet drei verschiedene Einbinde-Möglichkeiten auf die Website:
  1. Direkte Verlinkung mit dem aStore URL
  2. Integrieren des aStore als iFramein bestehende Seite ein
  3. alternativ: aStore in Frameset integrieren 

AdSense


Google AdSense ist eine Plattform für ein Werbeprogramm, das von Google betrieben wird. Webseitenbetreiber können sich bei Google AdSense anmelden, wenn Sie Geld mit Werbeblöcken in Form von Bannern oder Links auf Ihren Webseiten verdienen wollen. Pro Klick auf ein über das Google-Programm eingeblendetes, kontextbezogenes Werbemittel erhält der sogenannte „Publisher“ eine Vergütung. Google AdSense ist daher mit einem Affiliate-Programm vergleichbar. Google AdSense kann auch als die Komplementärplattform zu AdWords bezeichnet werden, da der Publisher damit einen Teil des Geldes verdienen kann, das Werbekunden über Google AdWords für ihre Anzeigen zahlen.

Binde also Adwords Anzeigen von Partnern auf meiner Seite ein.






Wenn ich die Einstellungen speichere, erhalte ich den Code, den ich nun z. B. in ein HTML Widget einbinden kann.

Taregting:
Kann dann best. Partner aussuchen (Placements) oder Kategorien (Immobilienbereich, Sport, Finanzen, Fahrzeuge,...) bzw. diese auch ausschließen:


Lege damit bis zu 500 URL Channels an und kann auch A/B Tests damit fahren.

Leistungberichte sind einsehbar, z. B. Costs per Click








Dienstag, 3. Juni 2014

140603_Landingpage_&_Analytics

Liebes Tagebuch, ...

um unsere Zielgruppe besser zu verstehen, um sie anschließend besser zu navigieren, bedarf es im Vorfeld einer entsprechende Datenanalyse.
Usability Tests:
  • Experten Tests (diese gehen einmal durch den gesamten Prozess --> kognitiver Walkthrough und versetzen sich dabei in den User hinein
  • Heuristische Evaluation (s. Buch S. 725)
User Tests:
Diese Test können sowohl im Testlabor oder auch zu Hause (Vorteil: natürliches Verhalten) durchgeführt werden. Die User durchlaufen die Phasen Vorbereitung, Test, Auswertung und Optimierung. Insbesondere in der Testphase werden Techniken, wie z.B. Thinking Aloud, Teaching Back oder video Aufzeichnungen angewendet.

Weitere Analysearten sind z. B. Befragungen (online), Fokusgruppe, Fragebogen, Logfile Analyse (zwar riesiges Datenvolumen aber wichtig für Prozessoptimierungen).

Besonderheiten:
Eyetracking --> wie nimmt das menschliche Auge die Website wahr
Heatmaps --> Was sind die wesentlichen Anlaufstellen auf der Website (f-Line)
A/B Tests --> Nur ein Element testen oder komplett verschiedene Versionen

Diverse Online Tracking Formen (Recording Dienste) sind zudem nachzulesen unter
http://mouseflow.de/tour/mouse-tracking/ oder http://www.clicktale.com/products/mouse-tracking-suite/real-time-monitor.



GOOGLE ANALYTICS
Mit Google Analytics wird visualisiert, wie sich die Nutzer durch die unterschiedlichen Schritte des Bestellvorgangs (Warenkorb, Dateneingabe, Bestellübersicht) bis zur Bestätigungsseite bewegen. Diese Erkenntnisse werden anschließend genutzt, um mögliches Optimierungspotenzial des Bestellprozesses aufzuweisen.

Infos zur Nutzung des Tools: --> Analytics aufrufen --> Header auf verwalten klicken:
- Nutzerverwaltung--> organische Suche = mit Hilfe welcher Keywords kommen die User zu mir?
- Remarketing Listen --> Will User, die Artikel in Warenkorb gelegt aber dann doch nicht gekauft haben 
- Einstellungen der Datenansicht - Site-Search-Tracking aktivieren = habe dann Siuchfeld auf meinem Blog und kann damit die Suchwörter tracken; ähnlich: E-Commerce-Tracking (muss meinen Shop vorher allerdings vorher aktiviert und z. B. Preise hinterlegt haben)

Ziele: 
Ziele müssen SMART sein (spezifisch/messbar/attraktiv oder auch erreichbar/realistisch/terminiert.

Durch Einrichten eines Ziels mit Zieltrichter (Funnel) wird in Google Analytics exakt visualisiert, wie sich die Besucher durch die einzelnen Bestellschritte bewegen. Das Ziel einer Conversion Funnel Optimierung ist es, die Anzahl der wegfallenden Besucher weitgehend zu minimieren, damit der Umsatz durch das bestehende Budget weiter gesteigert werden kann (Conversion Rate = Käufer/Besucher).
Ein Multichannel Trichter besteht aus einer Reihe von Seiten, die zum Ziel führen:

a) Zieleinrichtung: Umsatz/Akquise/Anfrage/Interaktion oder Benutzerdefiniert (Wer hat meine Site besucht und wer hat dann auch tatsächlich gekauft?)

b) Zielbeschreibung: Ziel/Dauer/Seiten pro Sitzung/**Ereignis; Beispiel: Kleehonig bestellen; Definition eines Zieltyps, wie z. B. Dankesmail nach Kaufabschluss, Verweildauer (z. B. 5 Minuten --> kann erkennen, an welcher Stelle der User abgesprungen ist bzw. weiß, dass User, die länger als 3 Minuten auf meiner Seite verweilen, eine Bestellung aufgeben), Seiten/Bildschirme je Sitzung (z. B. drei Seiten), Ereignis (z. B. hat Video abgespielt)













c) Zieldetails**: Website URL integrieren, z. B. meinblog.de/klee-honig/einkauf'/danke ... da wir uns an die User wenden, die tatsächlich einen Kauf abgewickelt haben.
Der Conversion können wir nun auch einen Geldbetrag zuweisen (User hat z. B. für 8€ bestellt)
-----> und jetzt kommt die Erstellung eines Trichters "Geben Sie einen Pfad an, über den die Zugriffe vermutlich das Ziel erreichen. Analysieren Sie so die Eingangs- und Ausgangspunkte, die sich auf Ihr Ziel auswirken."
Ein Musterbeispiel eines TRICHTERS könnte wie folgt aussehen:

Der Kunde kommt via STARTSEITE (100%)  --> Kategorieseite
                                     SORTENAUSWAHL --> Honigsorten
                                     KLEE-HONIG --> Angebot
                                     BESTELLUNG -->   
                                     KD-DATEN --> 
                                     BESTÄTIGUNG--> Dankesseite (3 - 10%)

Wenn die User den Trichter verlassen, konzentriere ich mich aufs Retargeting oder ich schaue mir an, auf welchem Kanal sind sie zu mir gekommen oder ich fahre einen A/B Test.
Weiteres Beispiel:
http://www.e-wolff.de/blog/tag/ziele

Header --> Berichte:

Über "Berichte" kann ich nun den Zeitraum des Trackings definieren und diesen gar in Relation setzen (z. B. gg. Vorjahreszeitraum).


Durch das Navigationsmenü lassen sich weitere Trackingergebnisse aufzeigen:

  • Seitenaufrufe
  • Durchschnittl. Sitzungsdauer
  • Absprungrate (Bouncingrate --> im Blog meist über 50%) ... Ziel, diese zu minimieren
  • Demografische Merkmale (Alter, Geschlecht)
  • Geografie (Länderkennungen); woher komme die User (hier werden aber auch die Besuche der versch. Crawler aufgeführt); lokal/regional
  • Neukunden/Stammbesucher
  • Häufigkeit und Aktualität
  • Interesse (in Sek.)

 








Mit den gewonnen Erkenntnissen lassen sich auch Performance Vergleiche mit anderen Websites erstellen, wie z. B. mit adidas via alexa: http://www.alexa.com/siteinfo/adidas.com. 
Ebenso lassen sich Rückschlüsse für z. B. demografische Hintergründe bilden.

Um das Abbruchrisiko eines potenziellen Kunden (Bounce Rate) zu verringern empfiehlt es sich, diese durch jeweilige Anzeigen oder eine wie oben beschriebene Landing Page direkt auf die Produktseite weiterzuleiten. Sollte dagegen eine Reihe von Schritten notwendig sein, um zum Produkt zu gelangen oder es zu bestellen, trägt das zur Steigerung der Ausstiegsrate bei.



Weitere Trackingergebnisse:

  • Technologie --> Browser und Internetanbieter; Anbieter: wenn z. B. Vodafone aufgeführt wird, kann ich mir eine alternative Ansprache via SMS oder Apps überlegen
  • Mobil --> Übersicht: Tablets, Mobile, Desktop
  • Endgeräte: iPhone, iPad, Samsunf Galaxy, ...
  • Nutzerfluss










  • Echtzeitanalyse: wer befindet sich gerade jetzt auf meinem Blog (Praxis: nach Verteilung eines Flyers in der Stadt kann man daraus einen entsprechenden Erfolg ableiten)
  • Alle Zugriffe (welcher Blog hat auf meinen zugegriffen)
  • Keywords
  • Adwords: Kampagnen, Tageszeit, passende Suchanfragen, Placements, Keyword Positionen, Videokampagnen (so eines angelegt worden ist)
  • Soziale Netzwerke
  • Suchmaschinen Optimierung (Suchanfrage, Zielseiten, Geografische Zusammenfassung)
  • Verhalten --> Wieviele Leute habe ich auf Startseite bekommen oder zu best. Produkten und wo springen diese ab? (1. Interaktion = 260 Sitzungen, 135 Ausstiege; 2. Interaktion: 125 zu 64,...); will jetzt wissen, warum ausgestiegen wurde --> AB-Testing i. V. mit Clickmap
  • Site Search --> Suchbegriffe --> mit welchen Begriffen suchen die Leute? und welche Seiten wurden daruafhin ausgegeben
  • *Ereignisse (so zuvor durch das Ereignistracking angelegt worden ist)
  • InPage Analyse: Bei der InPage Analyse wird auf der Blogseite angezeigt, wo auf meinem Blog was wie häufig angeklickt worden ist; die Datenausbeute ist jedoch so gering, dass wir uns auf die vorangegangenen Trackingeregbnisse beziehen sollten.Daher besser clicktale.com (Filterfunktionen sind hier umfangreicher als bei Analytics).

Neben Analytics gibt es natürlich weitere Tools, wie z. B. piwik.org, econda.de oder etracker.com.



A/B Tests
Bei einem A/B Test werden zwei Versionen einer Website erstellt. Beispielsweise eine Version mit zwei grünen Buttons und eine mit einem blauen. Nun wird die eine Hälfte Ihrer Besucher auf die Variante A geleitet, die andere Hälfte auf Variante B, und anschließend wird ermittelt, welche Variante die höhere Conversion Rate oder den höheren Umsatz erzielt hat (z. B. zwei Shoppingvarianten vergleichen oder zwei Gestaltungsmöglichkeiten (männlich/weiblich; unterschiedl. Größe/Farbe des Bestellbuttons, Lage des Bestellbuttons). Auch denkbaer wäre eine QR-Code Erstellung via qrcode-generator.de, wobei ein Code auf die Landingpage führt und ein weiterer auf eine Kategorieseite.

Beispiel: Bestellbutton testen --> Testziel: Kleehonig bestellen -->  Prozentsatz: 100% des Traffics soll getestet werden


Weitere Besipiele finden sich auf Shopstrategie: http://www.shopstrategie.de/2009/09/02/grundlagen-website-testing-teil-1/
oder per visualwebsiteoptimizer.com/ab-testing.

**zu den Zieldetails:
Ereignisse füge ich dann bei Kategorie (video), Aktion (play), Label (Videoname) und Wert (Spielzeit) zu)*









URL Kampagne: Link muss ich erweitern durch Code im HTML Body über Eventtracking durch Kategorie, Aktion, Label und Wert.



















Dadurch kann ich z. B. herausfinden, wer wie häufig auf einen Link geklickt oder eine pdf heruntergeladen haben. *Unter dem Reiter Verhalten finde ich dann den Verweis auf Ereignisse.
Kann dieses Ereignistracking auch über meinen Tag Manager verwalten, damit ich nicht jeden Code nochmal in Analytics anlegen muss. http://www.google.de/tagmanager/features.html.
Alles Wesentliche zum Ereignis Tagging ist nachzulesen unter: 
https://support.google.com/tagmanager/answer/3420054?hl=de
Dieses automatische Eventtracking (oder auch Ereignistracking) kann man wunderbar unter http://www.thomashutter.com/index.php/2013/10/google-analytics-automatisches-event-tracking-mit-dem-google-tag-manager/ nachlesen.


URL Tracking

support.google.com/analytics/answer/1033867?hl=de

Will Landingape oder Startseite tracken, da ich dort einen Banner tracken möchte:
Kampagnenquelle: meine URL ... Landingpage oder Startseite (wo ich die Werbung hinpacke ... URL in Adwords oder in Newsletter, Flyer oder Facebook, ...)
Medium: Banner (was ist das Post beitrag oder via E-Mail, oder Banner oder QR Code eingereihctet; optional: will ich best. T-Shirts unterscheiden (männl./weibl.); oder kommen sie von Banner auf Wettbewerbsseite)
Kampagnen Content: Banner in grün  ... Kleehonig Seite in grün ... Kampagnenname: T-Shirt Aktion Mann/Frau (nur für mich zur Identifizierung)
Kampagnenname: Brand Banner Klee-Honig...20% f. Neukunden


Wer hat URL mit diesem Banner gesehen? In Analytics wird dieser oben generierte Link dann getrackt.
So will z. B. Zalando wissen, wer nach Metallschuhen sucht und ob der große oder kleine Banner funktioniert hat.
Kann dan in Echtzeit sehen, in Analytics, wer sich daraufhin auf meiner Site bewegt.
Kann bei dem Flyer Beispiel sehen, ob z. B. Alexplatz besser funktioniert hat als die gleiche Aktion beim Cottbuser Tor.

Aufgabe: Nennen Sie die wichtigsten Parameter. Zeichnen Sie einen Zieltrichter und erstellen Sie eine URL Kampagne.

Paramter: 
Das Interface von Google Analytics setzt sich aus fünf Grundfunktionen zusammen, die wiederum in Teilbereiche segmentiert werden können.
  • Echtzeit: hier können relevante Daten live von den Google-Servern abgerufen werden. Über die Echtzeit-Analyse können aktuelle Besucherzahlen, die Webseiten mit der größten Aktivität, die Herkunft von Besuchern oder auch Conversions betrachtet werden. Diese Funktion bietet sich vor allem bei aktuellen Marketingaktionen an, um eventuell sofort mit Anpassungen auf der Homepage reagieren zu können.
  • Zielgruppe: unter diesem Menüpunkt finden sich viele Daten zu den Besuchern der Website. Hier erhalten Analytiker die nötigen Metriken zur Besucherherkunft, zu den verwendeten Betriebssystemen oder zum Nutzerverhalten. Darüber hinaus verrät dieses Element mehr über demografische Merkmale oder gibt Aufschluss, wie viele User mit mobilen Endgeräten auf die Website zugreifen. Mit dem Feature „Seitenfluss“ lassen sich User-Bewegungen auf der Website nachvollziehen. Somit kann auch der Seitenwert verschiedener Pages ermittelt werden.
  • Akquisition: hierunter subsumiert Google alle wichtigen Kennzahlen zu den Besucherquellen. In Google Analytics werden die jeweiligen Kanäle u.a. nach organischer Suche, direkten Zugriffen oder Zugriffe über Verweise sortiert. Wenn das Kampagnen-Tracking genutzt wird, lassen sich auch Zugriffe und Conversions einzelner Kampagnen prüfen. Ist das Analytics-Konto mit einem AdWords-Konto verknüpft, fließen auch diese Daten in das Monitoring mit ein. Das Feld „Suchmaschinenoptimierung“ liefert Aufschluss auf die Zugriffe und bezieht Daten aus den Google Webmastertools mit ein. Eine Verknüpfung dieser Konten ist auch hier die Voraussetzung für zusätzliche Informationen.
  • Verhalten: auch wenn es der Titel des Menüpunkts nicht vermuten lässt, finden sich hier relevante Daten zu den beliebtesten Unterseiten einer Domain, zu den Ausstiegsseiten und der Bounce Rate. Darüber hinaus kann mit Hilfe der „In-Page-Analyse“ ein Overlay über die entsprechende Unterseite gelegt werden, woraus ersichtlich wird, in welchem Verhältnis die einzelnen Elemente auf der Seite von den Besuchern angeklickt wurden.
  • Conversions: hier können bei aktiviertem E-Commerce-Tracking relevante Umsatzdaten und Daten zu den Top-Sellern bezogen als auch einzelne Ziele getrackt werden. Definierte Ziele wären z.B. ein Newsletter-Abonnement oder eine bestimmte Verweildauer auf der Website.
  • A/B-Testing: Über Google Analytics können Content-Tests durchgeführt werden, um z.B. vor einem Relaunch die erfolgreichere Seitenversion zu ermitteln. 
Zieltrichter (http://advecto.de/ziele-und-google-analytics-teil-4-zieltrichter/)

Zieltrichter bestehen aus einer vom Websitebetreiber festgelegten Reihenfolge von Seiten, die bei einem Ziel enden. Jede dieser Seiten entspricht einem Schritt, die Zielseite entspricht dem Ziel.
Man kann somit feststellen, wie viele Kunden den Trichter (bspw. Checkout) betraten (indem sie ein Produkt in den Warenkorb legten), wie viele Besucher bei den einzelnen Schritten (Angabe der Rechnungsadresse, etc.) aus dem Trichter aussteigen und wie viele am Ziel angelangten (die Bestellung abschlossen).Nehmen wir folgenden Checkout-Prozess als Beispiel.
Der Warenkorb ist gefüllt und der Besucher bereits angemeldet. Der Besucher wird gefragt, ob er die gleichen Liefer- und Rechnungsanschrift sowie Zahlungsbedingungen wie beim letzten Kauf verwenden möchte. Falls ja, tritt der Besucher bei Schritt 2 in den Zieltrichter ein. Wenn er andere Bedingungen eingeben will, startet er bei Schritt 1.
Google Analytics Zieltrichter Checkout ohne "erforderlicher Schritt"
GA-Zieltrichter: Checkout ohne “erforderlicher Schritt”
(Mit Klick zur vergrößerten Darstellung)
  • Bei Schritt 1 werden Anschriften und Zahlungsweisen des letzten Kaufes angegeben. Der Kunde hat die Möglichkeit, neue Daten einzugeben.
  • Bei Schritt 2 werden Warenkorb und alle Daten angezeigt und vom Kunden bestätigt.
  • Schritt 3 ist ein interner Prozess, bei dem Plausibilitätsprüfungen, Bonitäts- und Anschriftenprüfung usw. vorgenommen werden. Der Nutzer sieht diese Seite nicht.
  • Bei Schritt 4 ist die Transaktion vollständig abgeschlossen, dem Kunden wird für seinen Kauf gedankt, Cross- und Up-Selling Angebote werden unterbreitet.

Hier einige weitere Beispiele, bei denen “Erforderlich” sinnvoll ist:
  • Stellen wir uns einen Online Shop vor, der Shirts verkauft. Diese werden genauer bestimmt, bevor sie dem Warenkorb hinzugefügt werden: Größe, Farbe, Druckmotiv, usw. Mit Polo-Shirts, T-Shirts und Hemden gibt es drei Produktkategorien. Alle drei Produktkategorien enden nach den Spezifizierungen im Warenkorb.
    In diesem Fall ist es sinnvoll, für jede Produktkategorie einen eigenen Zieltrichter anzulegen. Denn wir wollen schon je Produktgruppe wissen, wie viele Ausstiege es an welchen Stellen gab. Das wäre einer der Fälle, wo man das Häkchen bei “Erforderlich” setzen wollte.
URL-Kmpagne:


Ourlovelywear.blogspot.de



Newsletter, Flyer, Landingpage


QR-Code, Banner ... optional: Art


Shirt Aktion M/W


Jungfernstieg


Brand Landingpage