Mnemonic Mnemonic Communication 2013-01-08T12:32:33Z http://www.mnemonic.de/feed/atom WordPress Frank Ristau http://www.ristau.de/ <![CDATA[The Enlightenment Of SEO OnPage]]> http://www.mnemonic.de/?p=204 2012-06-26T09:47:37Z 2012-06-26T09:41:08Z In der Infografik “The Enlightenment Of SEO OnPage Ranking Factors” werden die OnPage Ranking Faktoren und Gebote des OnPage SEO dargestellt.  Wer diese Gebote beachtet, wird – etwas Geduld und eine gute externe Optimierung  vorausgesetzt – mit guten Platzierung in den Suchmaschinen Ergebnissen rechnen können.

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Scrum-Day 2012]]> http://www.mnemonic.de/?p=192 2012-06-12T10:37:59Z 2012-06-12T10:37:59Z Fans der agilen Softwareentwicklung sollten sich den 4. und 5. Juli freihalten. An diesen beiden Tagen findet in St. Leon-Rot bei Walldorf an der SAP-University der sechste Scrum-Day statt.

Nachdem die letzten Scrum Days bei der Deutschen Telekom und bei ImmobilienScout24 stattfanden und zunehmend Beachtung fanden, wird die Konferenz rund um agiles Projektmanagement mit dem Motto “UPscALE – Upscaled Agile in Large Enterprises” starten. Begleitend zu den Vorträgen wird ein “Open Space”, eine “Open Discussion” ein “Get Together” angeboten.

Zwei Highlights auf dem Scrum-Day 2012 werden die Keynotes der Scrum-Vetranen Dean Leffingwell und Ken Schwaber sein.

Im Vorfeld gibt es auch die Möglichkeit mit einem der beiden ein zweittägiges Seminar bzw. ein Zertifizierungstraining zu erleben.

Ein Professional Scrum Master Zertifizierungstraining mit Ken Schwaber. Informationen zum Zertifizierungstraining mit Ken Schwaber unter http://www.scrum-events.de/zertifizierungen/kenschwaber/index.html

Workshop “Leading the Lean|Agile Enterprise: A Two-day Workshop for Leaders, Managers, and Executives” mit Dean Leffingwell: Informationen zum Kurs finden unter http://www.scrum-events.de/zertifizierungen/deanleffingwell/index.html

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[SEO Onpage Checkliste]]> http://www.mnemonic.de/?p=168 2012-05-17T22:45:41Z 2012-05-17T19:26:18Z Suchmaschinenoptimierung umfasst Maßnahmen der “Onpage-Optimierung” (auch als On-the-Page oder On-Site-Optimierung genannt), als auch Maßnahmen der “Offpage-Optimierung” (Off-the-Page oder Off-Site-Optimierung).

Unter “Onpage Optimierung” versteht man alle Maßnahmen der Suchmaschinenoptimierung, die auf der eigenen Website vorgenommen werden. Bei der Onpage-Optimierung wird darauf geachtet, dass alle Seiten einer Webpräsenz erreichbar sind und Struktur und Inhalte für User und Suchmaschinen gleichermaßen gut aufbereitet sind.

Die Onpage Optimierung ist die Voraussetzung für gute Rankings in den Suchmaschinen. Sie ist das Rüstzeug und die Grundvoraussetzung. Gut also, wenn man dazu auf eine Chackliste zurück greifen kann.

Die Onpage Checkliste

Die folgende Liste stellt die wichtigsten Punkte einer Onpage-Optimierung dar. Sie erhebt keinen Anspruch auf Vollständigkeit. Auch werden sich einige Anforderungen durch Änderungen des Algorithmus und Filtern von Suchmaschinen (die Betrachtungen beziehen sich im übrigen überwiegend auf Google) ändern können. Last but not least sind mehrere Punkte auch zu diskutieren (will heißen: es gibt dazu unterschiedliche Meinungen).

SEO Onpage Checkliste
Task Bedeutung Erklärung
Title-Tag Eindeutiger Title-Tag ist obligatorisch Title-Daten werden in den Suchergebnissen für die Erstellung des „Snippets“ (Auszug) herangezogen.
Sie sollen einzigartig sein (keine 2 Seiten dürfen den gleichen title haben).
Empfohlene Länge: etwa 75 Zeichen oder weniger.
Title kann den Brand am Ende führen.
META-Keywords Einbau von passenden und einzigartigen META-Keyword- Tags pro Seite Suchmaschinen beziehen Meta-Keywords in die Relevanzgewichtung einer Seite nicht mehr ein – das kann sich jedoch ändern.
Relevante / wichtige Worte sollten zuerst auftauchen.
Relevanz kann auf www.google.de/trends überprüft werden.
Empfohlene Länge: etwa 4-8 Worte.
Per Komma getrennt, Leerzeichen nach Komma.
META-Description Einbau eines passenden und einzigartigen META-KeywordTags pro Seite ist obligatorisch “Suchmaschinen nehmen das META-Description-Tag für den zweizeiligen Auszug („Snippet“) im Suchergebnis.
Der Inhalt sollte einzigartig sein und zur Seite passen.
Relevante Stichworte sollten in der META-Description verarbeitet werden.
Eine Richtlinie für die optimale Länge der Description gibt Google selbst in der Ergebnisanzeige vor: Jede Trefferbeschreibung besteht aus ca 160 – 180 Zeichen, wobei etwa in der Hälfte eine Zäsur gemacht wird. Also soll auch die Description im ersten Teil (70 – 80 Zeichen) nicht nur die wesentlichen Keywords enthalten, sondern auch zum Klick anregen.
Beispiel für eine Auto-Seite: Gebrauchtwagen und News für Autokenner – auf unseren Autoseiten finden sie die neusten Infos, die heißesten Gerüchte sowie alles zum Thema PS, Tuning und immer die besten Tipps für günstige Angebote.
Strukturiertes HTML, semantischer Inhalt Valider HTML-Code, Einbau passender HTML-Tags, H1 – H3 Überschriften, strong, em etc. Verwendung von validem HTML-Code (W3C Check).
Überschriften sollten in <h>-Tags stehen (H1 bis H3).
Text-Abschnitte sollten von <p>-Tags eingeschlossen werden.
Listen sollten mit <li>-Tags organisiert sein.
<div>-Ebenen sind <table>-Tabellen zum Layout vorzuziehen.
Content strukturieren (strong, em etc): Inhalte mit der Formatierung „Fett“ (<strong>) oder „Kursiv“ (<em>) sind für den User hervorgehoben und werden deshalb von Suchmaschinen auch höher gewertet als normal formatierter Text.
Je kürzer der HTML-Code desto besser.
robots.txt , meta noindex, nofollow Robots.txt darf die Suchmaschinen-Crawler nicht ausschließen, Meta noindex oder nofollow dürfen Suchmaschinen nicht einschränken. Eine robots.txt-Datei darf Suchmaschinen nicht ausschließen.
Auch in den Meta-Daten dürfen Suchmaschinen nicht ausgeschlossen werden (Kein Einsatz von „noindex“, „nofollow“, „noarchive“ u.ä. – diese hindern am indizieren oder Links verfolgen).
Diese Meta-Daten dürfen nur in Ausnahmefällen vorsichtig – und am besten nach Rücksprache mit SEO-Experten – genutzt werden.
Inhalt indizierbar Wichtiger Inhalt soll im HTMLContainer stehen Wichtiger Text darf nicht in Bildern (GIF, JPEG, PNG) oder Flash vorkommen – er kann nicht gefunden werden.
Inhalte in Inline Frames können nicht gefunden werden.
Inhalte in Javascripts können m.E. nicht gefunden werden.
Nachgeladene Inhalte (AJAX) können m.E. nicht gefunden werden.
Inhalte, die nur mit Plugins gezeigt werden können (z.B. JAVA) können nicht gefunden werden.
Inhalte/Informationen sollen als Systemschrift angelegt werden.
Ein Text-Browser wie „lynx“ oder Tools wie z.B. http://www.yellowpipe.com/yis/tools/lynx/lynx viewer.php zeigen an, wie eine Suchmaschine eine Seite in etwa sieht.
Keywords im Inhalt Seite kann nur zu einem Suchwort gefunden werden, wenn dieses dort auftaucht Pro Text / Seite auf 1-2 Keywords (oder Keyword-Kombinationen bzw. Suchphrasen) konzentrieren.
Relevanz von Keywords so wie wichtigste Erweiterungen prüfen über Google Trends und das AdWords Keyword-Tool (http://www.google.com/trends/ bzw. https://adwords.google.com/o/Targeting/Explorer?__c=1000000000&__u=1000000000&ideaRequestType=KEYWORD_IDEAS).
Wenn eine Seite zu „OCR Software“ gefunden werden soll, muss das Wort bzw. Kombination „OCR Software“ auf der Seite auftauchen.
Jedoch auch nicht zu häufig um Spamverdacht zu vermeiden (Stichwort: Stuffing, Keyword Density).
Keywords sollten in Überschrift, Teaser, Bildunterschrift und Text auftauchen, ohne die Lesbarkeit negativ zu beeinflussen.
Kewords sollten sowohl am Anfang des Artikels als auch am Schluß vorkommen.
keine Irreführung,
kein Stuffing Sinnlose Wiederholung von Keywords im Text wird bestraft Vielfache Wiederholung eines Keywords hilft nicht, sondern wird als Betrug eingestuft und führt zum Ausschluss aus Suchmaschinen.
Entscheidend ist die richtige Keyword-Density (beschreibt, wie häufig ein Begriff (das Suchwort) in einem Dokument vorkommt. Sie ist der Quotient aus absoluten Anzahl eines bestimmten Terms (Wort- oder Wortkombination) und der Anzahl aller Terme im Dokument).
Eine Keyword-Density von 3-4% ist i.d.R. gut.
keine unsichtbaren
 Inhalte Der Versuch der Täuschung wird bestraft Inhalte in unsichtbaren Bereichen (unsichtbare Ebenen, Schriftfarbe = Hintergrundfarbe oder ähnliche Tricks) schaden dem Suchmaschinenlisting und führen zum Ausschluss der Seite aus dem Suchmaschinenindex
keine Frames Frames schränken das Suchmaschinen-Ranking ein und sollten vermieden werden Suchmaschinen kommen schwer mit Frames zurecht, da sie die Struktur (Browserpaths) nicht erkennen können.
Frames werden in den Suchergebnissen vernachlässigt behandelt.
Das Verwenden von Frames und iFrames sollte dringend vermieden werden – alle Inhalte hinter einem Frame werden nicht gefunden.
Der Einsatz von Frames gilt auch bei Website-Besuchern als veraltet. Mobile Endgeräte kommen mit Frames ebenfalls kaum zurecht.
keine Popups Popups per Javascript werden nicht verfolgt und sollten vermieden werden Suchmaschinen „assoziieren“ Popups mit übermäßiger Werbung.
Suchmaschinen verfolgen m.E. keine Javascript-Links.
Inhalte in Popups werden daher von Suchmaschinen nicht indiziert und nicht gefunden.
Popups sind nicht nur für User ärgerlich sondern bleiben für Suchmaschinen unsichtbar.
Möglich sind ggf. Layer.
keine Flash-Only
Informationen Informationen in Flash-Filmen sollten zur visuellen Verdeutlichung dienen und in Systemschrift zusätzlich auftauchen Suchmaschinen können aus Flash-Filmen keine Text-Informationen ziehen, sobald diese animiert sind.
Flash-Filme werden bei den Suchergebnislisten vernachlässigt behandelt.
Vorsicht bei Werbung Übermäßige Werbung wirkt für User störend Google bewertet auch die Usability einer Website. Übermäßige Werbung ist für User störend.
Google rankt daher Sites mit vile Werbung im sichtbaren Bereich schlechter.
„Made for Adsense“ Seiten haben kaum mehr eine Chance auf gute Rankings.
kein doppelter 
Inhalt Inhalte sollten ausschließlich unter einer URL erreichbar sein (kein Dupöicate Content) Derselbe Inhalt unter verschiedenen URLs (mehrere Domains, mehrere Seiten) wird als „Duplicate Content“ identifiziert und von den Suchmaschinen vernachlässigt behandelt.
Eine Seite sollte „unique“ sein, um von Suchmaschinen als wertvoll betrachtet zu werden.
Bei syndiziertem Content lässt sich Einzigartigkeit z.B. durch Einbindung Individueller (Text-)Inhalte, AOL-Navigation und –Footer herstellen.
Auch Parameter in der URL (?tracking=123) kann doppelten Content erzeugen.
Ergebnislisten Ergebnislisten auf der eigenen Website bedürfen einer besonderen Beachtung Ergebnislisten auf der eigenen Seite helfen als Einsprungsseiten zu Detailseiten – es handelt sich um Übersichtsseiten und sind daher sehr wichtig.
Aber: Ergebnislisten sind häufig Fehlerquellen – z.B. für doppelten Content – insbesondere wenn sie paginiert sind.
Da sie keinen eigenen Inhalt haben sondern sich aus Inhalten von Unterseiten zusammensetzen können sie doppelten Content darstellen – insbesondere wenn META-Title und META-Description nicht variiert werden.
Es gibt mehrere Wege Ergebnislisten richtig zu nutzen.
Der „modernste“ weg ist über die Auszeichnung mit „rel=next“ und „rel=previous“ bzw. view-all Resultpages (http://googlewebmastercentral.blogspot.de/2011/09/pagination-with-relnext-and-relprev.html).
Möglich ist auch der Einsatz von nofollow für Folgeseiten oder eine thematische Sortierung.
canonical canonical-Tag nur für wirklich gleichen Content Der canonical soll Suchmaschinen helfen doppelten Content richtig zu zu ordnen. Er darf daher nur für wirklich identischen Inhalt genutzt werden.
Verlinkung Interne Verlinkung ist extrem wichtig, Relevante Linktexte nutzen, Textlinks besser als Grafiklinks Eine gute interne Verlinkung ist eines der wichtigsten Ranking-Kriterien.
Wichtige Artikel sollten häufig (ggf. von jeder Seite – also aus der Navigation) verlinkt sein.
Interne Verlinkung sollte (auch) über Relevanz erfolgen.
Text in Bildern ist für Suchmaschinen nicht lesbar – daher onpage keine Navigation mit Bildern.
Relevanter Text in Links (sog. Anchor-Text) hilft der Zielseite im Ranking in den Suchergebnissen.
Sogenannte Stop Words sind erlaubt („dieser“, „im“, „mit“ etc.).
Verlinkung nicht über generische Worte („weiter“, „Details“, „mehr lesen“) sondern über passende Keywords („Mehr Informationen zur Privaten Krankenversicherung“, „Finden Sie hier alles zur günstigen privaten Krankenversicherungen“).
Links spiderbar Links sind nur hilfreich, wenn eine Suchmaschine sie versteht Links sollen als <a …>-Links verwendet werden.
Keine javascript:-Links – sie werden nicht verfolgt und beachtet.
Links sollten nicht über Bilder realisiert werden.
Der Link-Text sollte speziell sein – nicht generisch (Gut: „Hier geht es zur neuen Linkin Park CD“ – Schlecht: Zur „Madonna CD geht es hier“).
Links auf externe Seiten sind erlaubt, sie müssen aber regelmäßig auf Gültigkeit geprüft werden.
Link Farming Seite nicht mit Links überladen Eine magische Grenze für Links pro Seite sollte 100 nicht übersteigen (ist schon zu groß wenn nicht genug Text auf der Seite).
Sitemaps dürfen viele Links beherbergen.
Zu viele Links pro Seite helfen bei der Optimierung für Suchmaschinen nicht.
Alternativer Text Bilder mit alt-Attribut ausrüsten Bilder können durch das alt-Attribut näher beschrieben werden.
Beschreibung durch 2-4 Wörter (Beispiel: „Mann mit buntem Hut“, „Portrait von James Blunt“, „Ferrari mit Michael Schuhmacher“).
Sprechende URL Sprechende URL hilft der Suchmaschine die Seite zu verstehen Dateinamen in URLs sollten beschreibend sein (radsport.html, hotelsuche.html).
Trennung der Worte durch Bindestriche, nicht durch Unterstriche. Ausnahme: Dateinamen von Bildern
Die Ordnerlogik sollte möglichst flach sein – die Dateien sollten möglichst nicht weiter als 2 Ordner entfernt vom Root angelegt werden.
Die URL sollte parameterfrei bleiben, da Parameter ein Hindernis darstellen – Tracking sollte über Cookies erfolgen, nicht über eine Referrer-ID in der URL.
Ordnerstrukturen sollten den Inhalt beschreiben: (z. B http://www.meineseite.de/musik/madonna/biografie/index.html).
Bei Seiten die als News-Seite gelten sollen ist ein numerischer Bestandteil notwendig.
Sitemap / xml Sitemap Eine Sitemap sollte alle Übersichtsseiten sowie wichtige Ausgabeseiten übersichtlich in Textlinks zusammenfassen Suchmaschinen indizieren eine Website anhand von Links.
Sitemaps geben übersichtliche Einstiegspunkte auch in tiefe Websitebereiche.
Suchmaschinen folgen Verweisen und Links nicht endlos tief – Sitemaps bieten sehr gute Sprungpunkte.
Eine XML-Sitemap für z.B. Google sollte sehr regelmäßig und zeitnah automatisch upgedated werden, die URL der XML-Sitemap sollte bei Google angemeldet werden, um der Suchmaschine das zeitnahe Crawlen zu ermöglichen (Mehr Infos: http://www.google.com/webmaster).
Redirects Redirects nur per 301- Permanently Moved ausführen Google interpretiert sehr W3C konform.
Redirects werden von Suchmaschinen vernachlässigt behandelt, wenn sie technisch als 302 – Temporarily Moved umgesetzt wurden.
Lösung: Umsetzung nur als 301 – Permanently Moved.
Korrekter Statuscode http Statuscode (auch von Fehlerseiten) muß korrekt sein Google verhält sich sehr W3C konform – auch bei Fehlerseiten.
Der Statuscode für vorhandene Seiten ist 200 (ok).
Seiten die gelöscht wurden haben den Status 404 (not found) oder 410 (gone).
500er Fehler sind ein Programmierfehler und dürfen schon deshalb nicht auftreten.
Nicht einfach leere Seiten behalten (mit Status 200) wenn Inhalte nicht mehr vorhanden sind. Es muß ein Status 404 sein.
404 Seiten dürfen intern nicht mehr verlinkt sein.
Wichtige Seiten können mit 301 weitergeleitet werden (Soft 404).
Scripte Auslagern CSS und Javascript referenzieren und auslagern Je kürzer der HTML-Code, desto besser.
Auslagerung von Javascripts in .js Dateien.
Trennung von Layout und Inhalt durch CSS.
CSS auslagern, kein Inline-css.
Browser-Detection Keine Browserweiche extra für Suchmaschinen Browserweichen für Besuchergruppen sind für Suchmaschinen schlecht – wo unvermeidbar darf eine Suchmaschine jedoch nicht sonderbehandelt werden.
Keine Inhalte, die nur Suchmaschinen sehen – ein Ausschluss aus dem Index wäre die Folge.
keine Cookie-Pflicht Keine Cookie-Pflicht zum Besuchen der Seiten Cookies dürfen nicht den Besuch einer Seite bedingen
Inhalt muss auch für ausgeschaltete Cookies lesbar sein (Ausnahmen: Bestellprozesse, Webmail)
Ausnahme: „Interner Bereich“ (wenn User angemeldet ist)
Klickpfade Verlinkbaren Klickweg zu jeder Seite anbieten Jede Seite sollte per Deep-Link erreichbar sein
Es sollte zu jeder Seite ein Text-Link Klickpfad (Browsepath) vorliegen, sodass Suchmaschinen alle Seiten erreichen können
Bei Navigation/Auswahl welche per Drop-Down arbeiten, sollte parallel zu jeder Kombinationsmöglichkeit der Drop-Down-Möglichkeiten eine Link-Navigation bestehen (Beispiel: [Alle Auto-Modelle von Mercedes-Benz] – [Alle Cabrios von Mercedes-Benz]…
Hilfreich für saubere Klickpfade sind Breadcrumps
Einsatz von Rich Snippets Suchmaschinen lieben semantisches Web Wo möglich sollten Microformats genutzt werden.
Durch den Einsatz von Microformats können Suchmaschinen Inhalte besser zuordnen.
Beispiele: Adressen, Bewertungen.
Aber auch Google Authorship.
PageSpeed Seiten sollten schnell ausgeliefert werden Google „denkt“ aus Nutzersicht. Schnelle Seiten werden bevorzugt
Mit Tools wie YSlow! oder online http://loads.in/ kann man die Geschwindigkeit testen
Google selbst zeigt seine Einschätzung der Geschwindigkeit in den Webmastertools an
Serverstandort Google erkennt localization Hosting ist auch ein SEO-Thema. Einerseits geht es um Geschwindigkeit und Anbindung des Rechenzentrums, um Ausfall der Website aber auch um Lokalisierung.
Bei international tätigen Seiten sollte auf den Standort des/der Server geachtet werden.
Einsatz von CDNs ist denkbar – aber ein Spezialthema.
Generell ist beim Thema Hosting „Bad Neighborhood“ zu vermeiden.
tld Bestimmte Top-Level-Domains (tld) werden favorisiert .com, .net, .org sowie bestimmte Länderdomains wie .de werden am besten gelistet.
Bei international tätigen bzw. englischsprachigen Seiten sollte eine .com Domain zum Einsatz kommen (wird gegenüber .net und .org bevorzugt).
Mit Domains wie .ws, .cd, .tv ist es schwerer gute Rankings zu erzeugen.
Einsatz von Monitoring-Tools Eine Website muß stets beobachtet werden Webanalyse-Tools helfen Fehler auf der Seite zu beheben und sie weiter zu optimieren.
Obligatorisch ist der Einsatz von Webmaster-Tools (www.google.com/webmasters/tools/) – dort werden Crawling-Fehler angezeigt die zu beseitigen sind.
Ein Web-Analyse-Tool wie Google Analytics ist ebenfalls obligatorisch.
Der Code der für diese Tools eingebunden werden muß sollte stets am Ende der Seite sein.
SEO-Monitoring kann über Tools wie Sistrix, Searchmetics etc. zusätzliche Erkenntnisse bringen.

Nicht vergessen werden sollte, dass Faktoren der Onpage Optimierung teilweise Hand-in-Hand gehen müssen mit Faktoren der Offpage Maßnahmen. Um hier einige zu nennen:

  • Social-Signals -> Onpage sollte die Möglichkeit geschaffen werden Seiten zu teilen
  • Links und Linkbaits -> Auch hier muß der Anreiß auf der Website selbst geschaffen werden
  • Traffic- und Absprungraten -> gute On-The-Page Optimierung muß Usability und optimale Klickpfade schaffen

Autor dieses Artikels:

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Google Plus – das Authorship-Prinzip]]> http://www.mnemonic.de/?p=136 2012-05-17T12:52:05Z 2012-04-30T22:49:40Z Google arbeitet an einem personalisierten Web, bei dem Begriffe wie “Trust” und “Authorship” eine große Rolle spielen. Ein wesentlicher Bestandteil aus Google Sicht sind dabei die Google Plus Dienste.

Google+ Building a Web of Authority

Seit kurzem ist das Google Plus Authorship-Prinzip auch in Deutschland vollständig angekommen. Das heißt, der Suchende bekommt nun Ergebnisse, denen Google einen Urheber zuordnen kann, mit einem Proilbild bzw. einem Hinweis angezeigt. Dies geschieht auch, wenn er nicht bei Google angemeldet ist. Ein solches Ergebnis sieht z.B. so aus:

Google Plus Authorship - so siehts aus

Wir wollen uns anschauen, wie Google den Urheber identifiziert, bzw. wie Autoren Ihre Artikel zuordnen können.

Google Authorship – wie geht das?

Über die Tags “rel=author” beziehungsweise “rel=me” (dazu später mehr) können sich Autoren mit einem von ihnen erstellten Artikel identifizieren. Das Markup ermöglichte es Suchmaschinen und anderen Webservices Artikel auf unterschiedlichen Webseiten dem entsprechenden Verfasser zuzuordnen. Damit können sich z.B. Journalisten eine eigene und vor allem unabhängige Reputation aufbauen, da sich der Einfluss häufig referierter Autoren wohl zukünftig gegenüber den Verlagen erhöhen wird.

Google will z.B. In den Suchergebnissen Autoreninformationen (Bild und Name) anzeigen. Diese Informationen werden auch in den Picasa Webalben verarbeitet.

Um Authorship verifizieren zu können nutzt Google die Google+ Pages der Autoren. Dabei wird grundsätzlich die Funktion des Crosslinkings (Artikel des Autors linken auf sein Google+ Profil und umgekehrt) genutzt.

Im folgenden Video erklärt Google selbst die Funktion zur Autorisierung:

Einbindung auf der eigenen Seite

Es gibt zwei Wege das verifizieren der Authorship zu implementieren:

  1. Single-author blogs and sites
  2. Multiple-author blogs and sites

Google Pus Authorship Multi User Implementierung

Single-author blogs and sites

Step 1: Auf der Google-Profil-Seite müssen Links zu den einzelnen Seiten des Autors untergebracht werden. D.h. Links zu den einzelnen Artikeln des Autors
(To add links to your profile, click Edit profile, then click the Links box on the right of the page and add the links you want.)
Das Profilbild muß ein Foto des Autors sein es wird als Thumbnail zur Darstellung genutzt.

Step 2: Bei Blogs die durch einen Autoren gefüllt werden, bietet es sich nun an auf jeder Seite einen Link auf das Google-Profil unter zu bringen:
<a href=”https://profiles.google.com/109412257237874861202″ rel=”author”>About Matt Cutts</a>
Alternativ kann der Link auch als meta-Tag gesetzt werden:
Dafür wird innerhalb von <head>…</head>
der Tag eingefügt:
<link rel=”author” href=”https://plus.google.com/109412257237874861202″ />

Damit ist die gegenseitige Verlinkung zwischen Google+ Profil und Blog des Autors hergestellt.
rel=”author” sagt Google, dass Matt Cuts der Autor des Blogs ist.

Step 3: Test der Verifizierung mit dem Rich Snippets Testing Tool
http://www.google.com/webmasters/tools/richsnippets
Die URL des Blogs eingeben und Fehlermeldungen beachten.

Multiple-author blogs and sites

Step 1: Auf der Google-Profil-Seite müssen Links zu den einzelnen Seiten des Autors untergebracht werden. D.h. Links zu den einzelnen Artikeln des Autors
(To add links to your profile, click Edit profile, then click the Links box on the right of the page and add the links you want.)
Das Profilbild muß ein Foto des Autors sein es wird als Thumbnail zur Darstellung genutzt.

Step 2: Bei Mulit-User Sites – also Websites auf denen mehrere Autoren publizieren sollte der Autor jedes individuellen Artikels identifiziert werden.
Um nicht jeden einzelnen Artikel von der Google+ Page verlinken zu müssen kann die Verifizierung “zentralisiert” werden, indem eine Autorenseite angelegt wird (z.B. mit Biografie des Autors).
Von dieser zentralen Seite pro Autor kann nun das Google Profil des Nutzers wieder reziproc verlinkt werden.

Dies bedeutet in einzelnen Schritten:

Step 2a: Es wird für jeden Autoren einer Site eine Autorenseite (Biografie) angelegt.
Auf dieser Seite wird das Google-Profil des Autors verlinkt.
<a href=”https://profiles.google.com/103986182366525285858″ rel=”me”>Frank Ristau</a>
Dies kann wie oben beschrieben auch mit einem Meta-Tag gelöst werden.

Achtung: an dieser Stelle kommt das rel=”me” zum Einsatz, das signalisiert, dass es sich um den gleichen Autor handelt (will heißen die Autorenseite auf der eigenen Site wie auch das verlinkte Profil bei Google beziehen sich auf ein und die selbe Person)

Step 2b: Um die einzelnen Seiten des Autors nun zu markieren wird auf den einzelnen Seiten die vom Autor verfasst wurden auf die Biografie (Autorenseite der Site) verlinkt.

<a href=”http://www.bio-auf-meiner-site.de/Matt-Cuts.html” rel=”author”>MC</a>
Alternativ kann der Link auch als meta-Tag gesetzt werden:
Dafür wird innerhalb von <head>…</head>der Tag eingefügt:
<link rel=”author” href=”http://www.bio-auf-meiner-site.de/Matt-Cuts.html” />
Achtung: an dieser Stelle kommt wieder das rel=”author” zum Einsatz.

Step 3: Test der Verifizierung mit dem Rich Snippets Testing Tool
http://www.google.com/webmasters/tools/richsnippets
Die URL des Blogs eingeben und Fehlermeldungen beachten.

Auch Publisher können dieses System nutzen

Parallel zur Authorship kann auch der Publisher einer Site festgesetzt werden. Dies macht jedoch nur Sinn im Falle von Multi-User-Sites.
Hier kann auf der Startseite des Projektes mit rel=”publisher” sozusagen der Verlag in dem die einzelnen Autoren publizieren festgelegt werden.
Dazu kann man sinnvoller Weise die Google+ Page (in Abgrenzung zum Google+ Profile) verlinken – z.B. im html-head:

Dieser Link wird nur auf der Startseite angebracht, da durch Google nicht gleichzeitig rel=”author” und rel=”publisher” anerkannt werden.

Weitere Ressourcen

  1. http://googlewebmastercentral.blogspot.com/2011/06/authorship-markup-and-web-search.html
  2. http://www.google.com/support/webmasters/bin/answer.py?answer=1229920

Was bringt das Authorship-Prinzip?

Zunächst einmal eine erhöhte Klickrate in den Suchergebnissen. Denn die mit Profilbild gekennzeichneten Artikel sind für den Nutzer sehr auffällig.
Interessant sind die Überlegungen, die man daraus anstellen kann: Die Autorität eines Autors färbt auf die Website ab. In Zukunft kann es sich also lohnen, bekannte Autoren für die eigene Website schreiben zu lassen. Vieleicht ist dies der Anfang einer Wiedergeburt – der Rückkehr des Qualitätsjournalismus.


Autor dieses Artikels:

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Google bestraft Linknetzwerke]]> http://www.mnemonic.de/?p=130 2012-05-17T12:52:35Z 2012-04-19T16:40:37Z Einige Bemerkungen zu den aktuellen Ereignissen, dass Google gekaufte (ggf. auch getauschte – jedenfalls unnatürlichen Linkaufbau angeht) bestraft.

Was ist passiert?

Viele (angeblich 700Tsd) Link-Einkäufer haben vor einigen Wochen in den Webmastertools eine Benachrichtigung bekommen, dass bei Ihrer Seite ein unnatürlicher Linkaufbau stattgefunden habe.

Die Meldung lautet so:

“We’ve detected that some or all of your pages are using techniques that are outside our quality guidelines, which are available here: http://www.google.com/support/webmasters/bin/answer.py?answer=35769&hl=en Specifically, look for possibly artificial or unnatural links on your site pointing to other sites that could be intended to manipulate PageRank. For more information about our linking guidelines, visit http://www.google.com/support/webmasters/bin/answer.py?nswer=66356&hl=en We encourage you to make changes to your site so that it meets our quality guidelines. Once you’ve made these changes, please visit https://www.google.com/webmasters/tools/reconsideration?hl=en to submit your site for reconsideration in Googles search results.”

(siehe SEOroundtable)

Man soll die Links also entfernen und dann bei Google Meldung machen – inklusive Links melden, die nicht abgebaut werden können.

Was passiert ist also?

Aktuell werden tatsächlich gehäuft Links abgebaut. Das Problem ist dabei eigentlich nicht so sehr das aufdecken der Links einiger Netzwerke sondern ein daraus resultierender Dominoeffekt, denn Google kann damit sehr genau tracken an welchen Stellen jetzt etwas passiert, welche Links gemeldet werden aber auch an welchen Stellen aktuell gar kein weiterer Linkaufbau stattfindet. Einen sehr schönen Artikel dazu wie Google davon profitieren wird stammt von David Naylor (von dem ich sehr viel halte) http://www.davidnaylor.co.uk/detected-unnatural-links.html

Das Fazit

  • Links abbauen ist gefährlich
  • Linkaufbau ganz zu lassen ist auch kein gutes Signal
  • Generell ist immer vorsichtigeres Vorgehen angesagt
  • Schlechte Nachbarschaften müssen gemieden werden (war schon so aber wird wichtiger)
  • Links müssen “verwässert sein” – Links von einer Site und dem Artikel zu weiteren Autoritäten sind wichtig
  • Sites die an mehrere Kunden verkaufen sind zu meiden (siehe Dominoeffekt)
  • Linkaufbau wird aufwändiger und somit teurer

Autor dieses Artikels:

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Mnemonic ist…]]> http://www.mnemonic.de/?p=78 2012-06-22T18:47:39Z 2012-04-18T21:14:21Z … ausgebucht! Um sowohl unseren Bestandskunden als auch unseren eigenen Projekten die verdiente Aufmerksamkeit widmen zu können, ist es uns derzeit leider nicht möglich weitere Aufträge anzunehmen!

Vielen Dank für Ihr Verständnis!

Mnemonic Communication ist ausgebucht

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Mnemonic ist…]]> http://www.mnemonic.de/?p=7 2012-06-22T18:52:55Z 2012-04-18T17:43:16Z … Mnemonic-Communication e.K. – ein Online-Publisher. Mit unserer Redaktion stellen wir Netzpublikationen (oder Online-Publikationen) im Internet bereit. Wir sind erfolgreicher Betreiber von eCommerce und Special Interest Websites.

Mnemonic Websites

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Mnemonic ist…]]> http://www.mnemonic.de/?p=54 2013-01-08T12:32:33Z 2012-04-18T17:39:07Z Mnemonic-Communication e.K. ist eine inhabergeführte Agentur. Seit 1999 konnten wir zahlreiche Kunden bei ihren ambitionierten Internetprojekten unterstützen.

Ein erfahrenes Team – geführt durch den Online-Marketing und IT Experten Frank Ristau steht Ihnen zur Seite.
Manchmal benötigen Unternehmen eine neue Sichtweise. Wir helfen unseren Kunden eine neue Perspektive zu finden – mit Expertentipps, oder ganz konkreten “Hands-On” maßnahmen.

Mnemonic Leistungen

Als inhabergeführte Agentur finanziert sich mnemonic-communication e.K. seit seiner Gründung ausschließlich aus Eigenkapital und positivem Cashflow. Wir verzichten dabei auf die Aufnahme externer Finanzmittel wie etwa Venture Capital oder Fördermittel.

Mnemonic-Communication e.K. agiert stets nachhaltig. Die langfristige Ausrichtung berücksichtigt die Diversifikation innerhalb des Internet Business und ist ein wichtiges Ziel der Unternehmensentwicklung.

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[Unsere Kunden…]]> http://www.mnemonic.de/?p=65 2012-06-22T18:48:08Z 2012-04-18T17:32:17Z … lieben Diskretion – und deshalb werden sie an dieser Stelle auch nicht genannt. Viele von Ihnen sind Marktführer in ihrem Bereich.

Wir haben die Nummer 1 Strategie verinnerlicht – deshalb ist unsere Arbeit stets von Nachhaltigkeit und Qualität geprägt.
Mnemonic Nr eins Strategie

]]>
0
Frank Ristau http://www.ristau.de/ <![CDATA[mnemonic.de]]> http://www.mnemonic.de/?p=45 2012-06-22T18:48:17Z 2012-04-18T16:55:47Z Wir freuen uns über den Erwerb der Domain mnemonic.de.
In nächster Zeit werden wir an dieser Stelle unseren neuen Webauftritt konzipieren. Bis auf weiteres bleibt unsere Website www.mnemonic.communication.de erhalten.

Ebenfalls erhalten bleiben natürlich unsere bisherigen Leistungen.

]]>
0