Zu Besuch bei Kunden auf der EuroCIS 2015

Am vergangenen Donnerstag machte sich eine kleine sixclicks-Delegation auf den Weg nach Düsseldorf, um Europas führende Fachmesse für Retail Technology zu besuchen.

sixclicks und Remira verbindet eine jahrelange erfolgreiche Zusammenarbeit
Stefan Herrmann (links) von sixclicks mit Florian Blumberg, dem Marketing-Leiter von Remira

Vom 24. Bis zum 26. Februar 2015 präsentierten 318 internationale Aussteller auf der EuroCIS in der Messe Düsseldorf die neuesten IT-Produkte, -Lösungen und -Trends für den Handel. Zwei der Aussteller waren für uns von besonderem Interesse: Remira und Stat Control, die den Besuchern auf einem gemeinsamen Stand die Vorzüge ihrer Software-Lösungen für Bestandsmanagement, Disposition und Inventur näher brachten. Die beiden Unternehmen zählen zu unserem Kundenkreis, und so zögerten wir keine Sekunde, ihrer Einladung auf die EuroCIS zu folgen.

Dort konnten wir uns in ungezwungener Atmosphäre über unsere Zusammenarbeit austauschen und neue Impulse für Projekte sammeln. Schließlich wollen wir uns nicht auf dem Lob für unsere bisherige Arbeit ausruhen, sondern die Online-Auftritte von Remira und Stat Control weiter nach vorne bringen. Naturgemäß haben wir hauptsächlich die Online-Marketing-Aktivitäten der beiden Unternehmen im Blick. Trotzdem war es für uns sehr interessant, unsere Partner und ihr professionelles Auftreten in der Offline-Welt zu erleben. Diese Eindrücke lieferten uns einige Anregungen für eine durchgängige, plattformübergreifende Markenkommunikation.

Auch CCV mit einem Stand vertreten

Nach unserem Besuch auf dem Stand von Remira und Stat Control nutzten wir die Gelegenheit, uns die Angebote der anderen Austeller anzuschauen. Aus der Sicht eines Online-Marketers ist dabei vor allem die voranschreitende Entwicklung im Multichannel-Retail, also der Verknüpfung von Online- und Offline-Vertriebskanälen interessant. Das Thema Multichannel war auf der EuroCIS omnipräsent und wird uns in Zukunft sicher noch beschäftigen.

Längere Zeit verweilten wir auch an Stand C59 in Halle 09. Auf diesem präsentierte sich CCV, einer der führenden Dienstleister für elektronische Transaktionen in Europa, und seit einiger Zeit zufriedener Kunde von sixclicks. Auch hier ließen wir es uns nicht nehmen, unseren geschäftlichen Kontakt in persönlichen Gesprächen zu pflegen.


So klappt’s: SEO-Keywords finden und bewerten

Eine akribische Keyword-Recherche legt den Grundstein für den Erfolg in der organischen Google-Suche.

Am Anfang der Suche im Internet steht die Suchanfrage eines Nutzers an eine Suchmaschine. Diese sind bemüht, dem Suchenden die relevantesten Ergebnisse zu dem Keyword zu liefern, das er in das Suchfeld eingetippt hat. Als Website-Betreiber sollte man die Auswahl der auf der eigenen Seite verwendeten Keywords also mit Bedacht treffen, um von der gewünschten Zielgruppe zu passenden Begriffen im Netz gefunden zu werden. Bei Begriffen, nach denen nur wenig bis gar nicht gesucht wird, nutzt einem auch die beste Positionierung nichts.

Keywords bilden die Grundlage eines jeden erfolgreichen SEO-Konzeptes. Der Keyword-Recherche kommt daher eine große Bedeutung bei der Planung und Umsetzung von SEO-Maßnahmen zu. Bei der Auswahl geeigneter Keywords sollte man sich nicht ausschließlich auf sein Bauchgefühl verlassen, sondern fundierte Zahlen sprechen lassen. Diese erhält man am besten im Keyword-Planer von Google, zumal Internetseiten primär für den unangefochtenen Marktführer unter den Suchmaschinen optimiert werden.

Keyword-Planer liefert Ideen

Bevor man zu einem der diversen Tools zur Keyword-Recherche greift, sollte man sich genau mit dem jeweiligen Projekt vertraut machen, und in einem Brainstorming oder in Absprache mit dem Kunden erste Ideen für mögliche Keywords suchen. Eventuell kann man auch auf Erfahrungen aus früheren Projekten zurückgreifen. Außerdem kann es nicht schaden, sich in die Lage der Suchmaschinen-Nutzer zu versetzen: Was sind ihre Bedürfnisse? Wonach könnten sie in einem bestimmten Kontext suchen? Nicht zuletzt lohnt ein Blick auf die direkte Konkurrenz: Welche Keywords kommen dort zum Einsatz und zu welchen Keywords ranken die Mitbewerber? Antworten auf diese Fragen liefert beispielsweise die Sistrix Toolbox, die unter anderem sämtliche Keywords aufführt, zu denen eine Domain rankt.

Der gängigste Weg, um neue Ideen für Keywords zu sammeln, ist jedoch der Keyword-Planer von Google. Dieser ist Bestandteil des Adwords-Kontos, kann jedoch auch dazu genutzt werden, geeignete SEO-Keywords zu finden. Unter dem Menüpunkt „Ideen für neue Keywords und Anzeigengruppen suchen“ kann man dort Keyword-Ideen für Dienstleistungen, Produkte bzw. Produktkategorien oder eine bestimmte Zielseite abrufen. Diese lassen sich dann unter anderem nach den durchschnittlichen Suchanfragen pro Monat für das jeweilige Keyword. Das sogenannte Suchvolumen gibt Aufschluss darüber, wie häufig das Keyword in der Google-Suche abgefragt wurde, und ist ein wichtiger Indikator für die Wettbewerbsfähigkeit eines Keywords. Zusätzlich erhält man eine grobe Einschätzung über die Wettbewerbsdichte zu dem jeweiligen Keyword. Diese wird mit „Niedrig“, „Mittel“ oder „Hoch“ angegeben. Zwar beziehen sich diese Angaben auf Adwords-Anzeigen, sie lassen ich in der Regel jedoch auf die organische Suche übertragen. Idealerweise findet man ein Keyword mit hohem Suchvolumen und niedrigem Wettbewerb. In einem solchen Fall steigen die Chancen auf gute Rankings und eine hohe Click-through-Rate.

Keywords finden mit dem Google-Keyword-Planer
Abb. 1: Keyword-Ideen im Keyword-Planer von Google

Ranking-Entwicklung überwachen

Weiter verfeinern bzw. erweitern lässt sich die Auswahl der Keywords mit Hilfe eines LSO-Tools. Bei der Optimierung mit LSI-Keywords (Latent Semantische Optimierung) geht es grundsätzlich darum, nicht immer das gleiche Keyword zu benutzen, sondern auch semantisch verwandte Begriffe (Umschreibungen, Synonymen oder Abwandlungen) in einen Text einfließen zu lassen. Die konsequente Verwendung von LSI-Keywords definiert das Keyword genauer und hilft der Suchmaschine bei der thematischen Zuordnung einzelner Artikel. Zudem kann so ein breiteres Spektrum bei den Suchanfragen abgedeckt werden.

Um zu überprüfen, ob man mit der Auswahl seiner Keywords richtig lag, muss man sich zunächst gedulden, bis die entsprechenden Seiten indexiert sind und sich im Ranking etabliert haben. Verschiedene Monitoring-Tools wie die Google Search Console ermöglichen einem die kontinuierliche Überwachung der Keywords. Die Positionen für die einzelnen Keywords lassen sich ebenso schnell nachvollziehen wie Klicks, Impressionen, Click-through-Rate (CTR), Ranking-Entwicklungen sowie die URLs, zu denen die jeweiligen Keywords ranken. Die gelieferten Daten liefern dem geschulten Auge wichtige Rückschlüsse darüber, ob die SEO-Maßnahmen auf der Seite erfolgreich waren bzw. wo noch Nachholbedarf besteht.

Keyword-Daten in den Google Webmaster-Tools auswerten
Abb. 2: Übersicht zu einem Keyword in den Webmaster-Tools

 


Paginierung: die richtige Seitenaufteilung für Suchmaschinen

Aufgeteilte Inhalte mit rel=“next“ oder rel=“prev“ organisieren. Vermeidung von doppelten Inhalten in Suchmaschinen mit rel=“canonical“.

Die Seitennummerierung eines Schriftstückes wird als Paginierung bezeichnet. Auch für die Seitenaufteilung im Internet hat sich dieser Begriff mittlerweile etabliert. Darunter versteht man die Aufteilung längerer Artikel oder Seiten mit vielen Informationen (z. B. Kategorieseiten, Themenseiten, Blog-Archive, Foren) in mehrere Komponenten-URLs, die wie in einem Buch in logischer Abfolge angeordnet und durchnummeriert werden (/page/1/ bis /page/N/). Die einzelnen Seiten können meist über Zahlen, Pfeile, Vor- und Zurück- oder Vorherige-Seite- und Nächste-Seite-Buttons angesteuert werden, die sich unter- oder oberhalb des paginierten Inhalts befinden.

Paginierung von Webseiteninhalten für den Nutzer in einer Reihe
Abb. 1: Möglichkeit, einzelne Seiten direkt oder über Pfeile anzusteuern

Aus SEO-Sicht kann diese Form der Paginierung problematisch sein, denn das Internet ist kein Buch, bei dem man auf Seite eins anfängt zu lesen. Als Einstieg in Internetinhalte, egal ob informativer oder kommerzieller Art, dient meistens eine Suchmaschine.

SEO-freundliche Paginierung mit HTML-Attributen

Für menschliche Leser ist die Paginierung einer Internetseite in der Regel leicht nachvollziehbar. Die Suchmaschinen-Crawler sind ohne die Nutzung bestimmter HTML-Attribute jedoch nicht in der Lage, eine bestimmte Reihenfolge auszumachen. Sie indexieren einzelne Komponentenseiten zunächst zusammenhanglos. In den Suchergebnissen wird dann die Seite angezeigt, die für Google und Co. die höchste Relevanz zu der jeweiligen Suchanfrage besitzt. Dabei werden die üblichen Ranking-Faktoren herangezogen. Wenn also beispielsweise die vierte Seite eines zehnseitigen Artikels besser auf ein Keyword optimiert oder häufiger verlinkt wurde, kann es vorkommen, dass sie besser rankt als die erste Seite.

Ziel sollte es jedoch sein, das die erste Seite die besten Rankings erhält. Daher ist es sinnvoll, die Relation zwischen den Seiten und deren korrekte Abfolge nicht nur den Lesern zu verdeutlichen, die bereits auf der Seite sind, sondern auch den Suchmaschinen. Für eine SEO-freundlichen Paginierung von Internetseiten gibt es im Wesentlichen zwei Möglichkeiten: View-All-Pages sowie die Nutzung von rel=“next“- und rel=“prev“-Links.

rel=“next“- und rel=“prev“ verdeutlichen Google die korrekte Seitenabfolge

Die Beziehung zwischen einzelnen URLs lässt sich mit Hilfe der HTML-Attribute rel=“next“ und rel=“prev“ im <head>-Bereich einer Webseite angeben. Die Verwendung dieser Link-Attribute zeigt den Suchmaschinen, dass die so ausgezeichneten Seiten in einer bestimmten Reihenfolge angezeigt werden sollen und sorgt dafür, dass die Suchmaschinen-Nutzer in der Regel auf die erste Seite geleitet werden. Jede zusammengehörige URL erhält ein rel=“next“-Tag, das auf den folgenden Teil und ein rel=“prev“-Tag, das auf den vorherigen Teil einer Seite verweist.

Bei einem in vier Komponenten-URLs aufgeteilten Artikel könnte die Auszeichnung wie folgt aussehen:

Auf der ersten Seite kann man sich auf rel=“next“ beschränken, da es hier nur vorwärts geht:

<link rel="next" href="http://www.beispiel.de/artikel-teil2.html">

Bei der letzten Seite genügt rel=“prev“, das auf die vorherige Seite verweist:

<link rel="prev" href="http://www.beispiel.de/artikel-teil3.html">

Die Seiten zwei und drei verweisen sowohl auf die folgende als auch auf die vorherige Seite. Hier Seite zwei, auf der auf die vorherige und nächste Seite verwiesen wird.

<link rel="prev" href="http://www.beispiel.de/artikel-teil1.html">
<link rel="next" href="http://www.beispiel.de/artikel-teil3.html">

View-All: alle paginierten Seiten auf einer Übersichtsseite zusammenfassen

Die Alternative zur Paginierung mit rel=“next“ und rel=“prev“ ist eine sogenannte View-All-Page. Wie der Name schon sagt, sind so alle paginierten Inhalte komprimiert auf einer einzelnen Seite einsehbar. Diese Vorgehensweise findet man zum Beispiel bei Kategorieseiten von Online-Shops. Diese verfügen häufig über die Option, sich anstelle von einzelnen Komponentenseiten mit einer begrenzten Anzahl von Produkten (z. B. 10) alle Produkte der jeweiligen Kategorie auf einmal anzeigen zu lassen.

SEO paginierung von Webseiten
Abb. 2: Oben eine Seite, auf der zehn Produkte angezeigt werden. Mit einem Klick auf „All“ gelangt man auf die View-All-Seite, auf der alle 691 Produkte angezeigt werden.

Auch hier kann man nachhelfen, um die entsprechende Seite Suchmaschinen als View-All-Seite kenntlich zu machen. Dies geschieht mit Hilfe eines Canonical-Tags auf den einzelnen Komponentenseiten: <link rel=“canonical“ href=“http://www.beispiel.de/view-all.html“>. In den Suchergebnissen erscheint dann die Seite mit der Gesamtansicht. Ein weiterer Vorteil des Canonical-Tags ist die Vermeidung von Duplicate Content, der auf einer View-All-Seite naturgemäß entsteht, da sie im Endeffekt nur die Inhalte zusammenfasst, die bereits auf den einzelnen Komponenten-URLs zu finden sind. Bei korrekter HTML-Auszeichnung wird die View-All-Seite von der Suchmaschine als Original betrachtet und zur Indexierung herangezogen.


So werden Google-Sitelinks mit der Google Search Console organisiert

Google-Sitelinks erleichtern die Navigation und bieten den direkten Einstieg in verschiedene Ebenen einer Webseite.

Meistens werden die Sitelinks in den Suchergebnissen angezeigt, wenn nach einem Domain- oder Markennamen gesucht wird, doch auch bei anderen Seiten, die zu einer bestimmten Suchanfrage weit oben gelistet sind, werden manchmal Sitelinks geschaltet. Der Nutzer bekommt zu seiner Suchanfrage dann bis zu sechs zusätzliche Links angezeigt, die auf verschiedene Unterseiten der gesuchten Domain führen. Durch einen Klick auf „Weitere Ergebnisse von …“ erhält der Nutzer einen Überblick über sämtliche Unterseiten des gesuchten Unternehmens.

Google entscheidet, welche Sitelinks angezeigt werden

sixclicks.de-Snippet mit SitelinksWährend man Sitelinks in den bezahlten Adwords-Anzeigen als Anzeigenerweiterung für bestimmte Anzeigen auswählen kann, können sie für die organische Suche nicht beliebig definiert werden. Ich habe keinen direkten Einfluss darauf, zu welchen meiner Unterseiten Sitelinks erscheinen. Für die Entscheidung ob bzw. welche Sitelinks angezeigt werden, verwendet Google einen komplexen Algorithmus, der sich an der internen Linkstruktur der jeweiligen Seite orientiert.

Sitelinks erscheinen in den Suchergebnissen nur, wenn Google sie als hilfreich für den Nutzer erachten. Sind die Sitelinks einer Website in Googles Augen nicht relevant für die jeweilige Suchanfrage, wird nur ein normales Snippet ohne Sitelinks angezeigt. Auch die Auswahl der Unterseiten, die mit einem Sitelink versehen werden, liegt im Ermessen der Suchmaschine. Die Auswahlkriterien sind dabei nicht sehr transparent. Vermutlich werden bevorzugt Seiten ausgewählt, die von Suchenden häufig angeklickt werden.

Auswahl von Sitelinks beeinflussen

Ich kann mir also nicht sicher sein, dass immer die Seiten verlinkt werden, die ich als wichtig erachten. Es gibt jedoch Möglichkeiten, die Auswahl der Sitelinks zu beeinflussen. Zum einen lässt sich die Qualität der Sitelinks dadurch verbessern, dass sowohl Anker- als auch das Title-Attribut der internen Links informativ, kompakt und thematisch passend sind. Zum anderen bietet Google in den Webmaster-Tools seit einiger Zeit die Option, die Schaltung von Sitelinks zumindest teilweise nach den eigenen Vorstellungen zu gestalten.

Dazu kann ich einzelne meiner URLs abwerten und Google so signalisieren, dass ich die jeweilige URL als ungeeignet für einen Sitelink betrachte. Alles, was ich dafür tun muss, ist die URL, die abgewertet werden soll, in den Webmaster-Tools unter dem Menüpunkt „Sitelinks“ in das entsprechende Feld einzutragen und auf „Abwerten“ zu klicken. Bei der Generierung von Sitelinks berücksichtigt Google eine Abwertung als starkes Signal, kann jedoch nicht garantieren, dass abgewertete URLs niemals als Sitelink angezeigt werden.

Abwertung von Sitelinks in den Google Webmaster-Tools Seiten, die sich generell für eine Abwertung anbieten, sind beispielsweise das Impressum und die AGBs. Diese generieren keine Konversionen und bieten dem Nutzer im Snippet keinerlei Mehrwert. Für jede in den Webmaster-Tools aufgeführte Domain sind Abwertungen von bis zu 100 Sitelinks möglich. Aktuell bleibt eine Abwertung für 90 Tage aktiv, nach diesem Zeitraum muss sie erneuert werden. Andererseits lassen sich Abwertungen jederzeit rückgängig machen.


SEO verbessern mit „ausgezeichnetem“ Inhalt in HTML-Strukturen

Die Hypertext Markup Language (HTML) dient der Strukturierung von Internetseiten und bietet zahlreiche Attribute, um die Bedeutung von Seiteninhalten für Suchmaschinen klar zu deklarieren. Für einen Suchalgorithmus ist nicht entscheidend, was tatsächlich auf einer Seite zu sehen ist, sondern die konkrete Umsetzung des Dargestellten im HTML-Quellcode.

Zum Beispiel macht es für den Suchmaschinen-Crawler einen großen Unterschied, ob eine Überschrift im Frontend mittels eines h-Tags wirklich als solche ausgezeichnet oder nur durch Fettdruck hervorgehoben wurde. Der Benutzer erkennt optisch vermutlich überhaupt keinen Unterschied, Suchmaschinen sind allerdings auf eine saubere HTML-Struktur angewiesen, um die Inhalte einer Seite richtig erkennen und auswerten zu können. Im Sinne der Suchmaschinenoptimierung sollte man daher genau darauf achten, dass sämtliche HTML-Auszeichnungen korrekt genutzt werden.

h1 bis h6: Überschriften korrekt nutzen

Quelle: http://www.bildschirmarbeiter.com/content/images/html-tags/html-tags-16.jpgEbenso wie dem Leser dienen Überschriften den Suchmaschinen zur thematischen Einordnung einer Seite. Aus diesem Grund sollten die Überschriften die in einem Artikel behandelten Punkte möglichst präzise und inhaltlich korrekt auf den Punkt bringen. Mehrdeutige, missverständliche Aussagen sowie Keyword-Stuffing gilt es zu vermeiden.

Für die Strukturierung eines Textes stehen sechs verschiedene Überschriften-Typen (<h1> bis <h6>) zur Verfügung, die sich in Größe und Relevanz unterscheiden. Idealerweise kommen pro Seite nur eine <h1> als Hauptüberschrift, maximal zwei <h2> und maximal drei <h3> zum Einsatz. Die Überschriften <h4> bis <h6> werden im Normalfall nur in langen Dokumenten verwendet, die eine besondere Gliederung benötigen.

Für die Suchmaschinenoptimierung haben die h-Tags eine große Bedeutung, da Keywords in den Überschriften höher gewichtet werden als in anderen Textelementen. Dabei gilt:

  • Je weiter vorne das jeweilige Keyword in einer Überschrift platziert wird, desto besser.
  • Ein Keyword in einer kurzen Überschrift (max. 5-7 Wörter) besitzt eine höhere Relevanz als in einer verhältnismäßig langen Überschrift.

Des Weiteren sollte die Anzahl der Überschriften in einem gesunden Verhältnis zum Umfang des Textes stehen und ausschließlich der Gliederung eines Artikels dienen. Mehrere wahllos aneinander gereihte h-Tags widersprechen dem eigentlichen Sinn einer Überschrift und können in extremen Fällen zu Abstrafungen durch Google in Form von Rankingverlusten führen. Auch Randspalten oder Teaser im Umfeld des eigentlichen Textes sollten nicht mit einem h-Tag ausgezeichnet werden.

Hervorhebungen durch Fettdruck oder kursive Schrift

Um einzelne Wörter oder Passagen innerhalb eines Fließtextes durch Fettdruck hervorzuheben, ist die Nutzung der Tags <strong> und <b> möglich. Im Oktober letzten Jahres erklärte Matt Cutts, der Leiter des Google-Webspam-Teams, dass Google bezüglich des Rankings nicht zwischen diesen beiden Tags differenziert.

Gleiches gilt auch für kursive Schrift, die sich sowohl durch <em> als auch durch <i> kennzeichnen lässt. Dass dieses Thema von Google explizit aufgegriffen wurde, verdeutlicht den Stellenwert einer korrekten Auszeichnung mit HTML-Tags für die Suchmaschinenoptimierung.

Meta-Title ein wichtiger Rankingfaktor

Ein weiterer wichtiger Faktor sind die Meta-Elemente, für die es zahlreiche verschiedene Attribute gibt. Für SEOs ist in erster Linie der Meta-Title (<title>) von Bedeutung, der im Dateikopf einer HTML-Datei platziert wird. Wenn er den Vorgaben von Google entspricht und relevante Keywords enthält, verwendet Google ihn für die Snippets in den Suchergebnissen. Zudem wird der Title im Browser-Tab angezeigt.

Jede URL sollte einen einzigartige Meta-Title besitzen, der aus maximal 65 Zeichen besteht, und bei dem das wichtigste Keyword möglichst am Anfang platziert wird. Längere Titles werden von Google in den Snippets abgeschnitten oder willkürlich durch einen Textauszug von der entsprechenden Seite ersetzt. Ein fehlender Meta-Title wirkt sich negativ auf das Ranking einer Seite aus, denn wenn der Crawler keinen Title-Tag findet, wird die Seite nicht vollständig indiziert. Außerdem verschenkt man so die Möglichkeit, potenzielle Besucher mit einem prägnanten Title zu einem Klick zu animieren. Durch das Zusammenspiel eines optimierten Title-Tags mit der Meta-Description lässt sich die Klickrate hingegen spürbar verbessern.

Die Description ist das zweite Meta-Element, dass Google für die Generierung des Suchergebnis-Snippets heranzieht. Sie wird von Google zwar nicht mehr direkt zur Berechnung des Rankings herangezogen, korrekt ausgezeichnete, ansprechend formulierte Meta-Descriptions können jedoch maßgeblich zur Qualität einer Seite und zum Umfang ihres Suchvolumens beitragen. Eine steigende Click-through-Rate hat wiederum einen direkten, positiven Einfluss auf das Ranking einer Seite.

Bilder-SEO verbessert die Reichweite

Auch im Bereich der Bilder spielen HTML-Auszeichnungen eine wichtige Rolle. Da Suchmaschinen nicht in der Lage sind, Bilder als solche zu erfassen, müssen die notwendigen Informationen zu einem Bild durch HTML-Attribute erfolgen. Neben einem Dateinamen, aus dem eindeutig hervorgeht, was auf dem Bild zu sehen ist, empfiehlt es sich, dem Google-Bot mit Hilfe von img-title- sowie alt-Tags weitere Informationen zur Verfügung zu stellen.

Aufgabe des alt-Tags ist es, ein Bild zu beschreiben, wenn es im Browser aus technischen Gründen nicht dargestellt werden kann. Zudem wird es von Screenreadern vorgelesen, die es Blinden ermöglichen, den Inhalt einer Internetseite zu erfassen. Das alt-Tag sollte ebenso das Haupt-Keyword enthalten wie das img-title-Tag, über das man dem Bild weitere Informationen hinzufügen kann. Für den Nutzer wird der Title sichtbar, wenn er mit dem Zeiger seiner Maus kurz auf dem Bild verharrt.

Mit gut optimierten Bildern lässt sich das Potenzial nutzen, das die Google-Bildersuche für die Reichweite einer Webseite bietet. Je nach Suchanfrage werden im Rahmen der Universal Search Ergebnisse aus der Bildersuche in einer sogenannten Onebox im oberen Bereich der SERPs angezeigt. Es lohnt sich also durchaus, den Bildern auf seiner Seite Beachtung zu schenken, denn mit ordentlichem Bilder-SEO kann man es nicht nur bei Google Images ganz nach vorne schaffen, sondern sich zusätzlich eine gute Position in der organischen Suche sichern.


Predictive SEO – Die Strategie für Google-Rankings von übermorgen

Die Grundidee des Predictive SEO lautet „Heute schon an morgen denken“. Das Potenzial, das aktuelle Themen und wiederkehrende Ereignisse für die Suchmaschinenoptimierung bietet, lässt sich mit dem „vorausschauenden SEO“ optimal nutzen. In der Praxis bedeutet dies, die Nachfrage nach bestimmten Suchanfragen zu decken, noch bevor diese aktuell werden. Eine Website, die frühzeitig zu einem Thema erstellt wird, das in absehbarer Zukunft hohe Besucherzahlen verspricht, kann sich rechtzeitig in den Rankings der Suchmaschinen etablieren, und sich dort weit vorne platzieren, wenn viele Nutzer danach suchen.

Derjenige, dem es gelingt als erster hochwertigen Content zu einem bestimmten Thema anzubieten, hat gute Chancen, dass er zur Referenz auf dem jeweiligen Gebiet wird. In der Regel kann man sich dann über viele Backlinks und eine Top-Platzierung in den SERPs freuen.

Man benötigt keine hellseherischen Fähigkeiten

Generell ist es natürlich schwer bis unmöglich, Trends oder Geschehnisse vorherzusehen, doch in einigen Bereichen benötigt man keine hellseherischen Fähigkeiten, um gewisse Entwicklungen zu antizipieren. Dies gilt insbesondere für Feiertage wie Weihnachten oder Ostern, Großereignisse wie die Fußball-WM sowie die Einführung neuer Produkte. Webseitenbetreiber, die solchen Faktoren bei der Suchmaschinenoptimierung nicht früh genug Beachtung schenken, ranken bei wichtigen Keywords schlechter, wenn ein Ereignis stattfindet bzw. die Nachfrage nach einem Produkt ihren Höhepunkt erreicht.

Themengebiete, die sich für Predictive SEO eignen, sind u. a.:

  • Feiertage
  • Großereignisse
  • Jahres-/Gedenktage
  • neue Produkte oder Technologien
  • neue Filme, TV-Shows oder Bücher

Predictive SEO: frühzeitige Planung ist das A und O

Wer seine Websites bereits im Vorfeld auf Themen bzw. Suchbegriffe optimiert, die in Zukunft relevant werden, verschafft sich einen entscheidenden Vorsprung gegenüber der Konkurrenz. Suchmaschinen benötigen immer eine gewisse Zeit, um eine neue Seite zu indexieren, und das Ranking einer Seite verbessert sich in der Regel schrittweise. Auch mit dem Backlink-Aufbau sollte man daher frühzeitig beginnen.

Es ist also sinnvoll, neue Seiten mehrere Monate im Voraus anzulegen und den Content gezielt auf kommende Ereignisse zu optimieren. Um den Suchmaschinen zu signalisieren, dass an der Seite gearbeitet wird, sollte man nicht vergessen, die neuangelegte Seite schon in den Wochen vor dem angepeilten Event zu aktualisieren und zu erweitern. Regelmäßige Content-Updates sind insbesondere bei zeitkritischen Suchen ein wichtiges Ranking-Kriterium.

Hohe Reichweite, wenn die Nachfrage am größten ist

Wenn beispielsweise der Betreiber eines Online-Shops weiß, dass er in absehbarer Zeit ein neues Produkt in sein Sortiment aufnimmt, sollte die entsprechende Produktseite nicht erst an dem Tag erstellt werden, ab dem dieses erhältlich ist. Vielmehr sollte die Seite angelegt und für die jeweiligen Keywords optimiert werden, sobald man von dem neuen Produkt erfährt.

Auf diese Weise erzielt man genau dann eine hohe Reichweite, wenn die Nachfrage nach dem Produkt steigt, das Verhältnis zwischen Suchvolumen und Anzahl der Suchergebnisse (hohes Suchvolumen bei verhältnismäßig geringer Konkurrenz) aber noch günstig ist.

Diese Vorgehensweise erhöht die Wahrscheinlichkeit guter Rankings und hoher Klickraten, birgt für Shop-Betreiber allerdings auch den Nachteil, dass das beworbene Produkt noch gar nicht lieferbar ist, wenn die ersten Besucher auf die Produktseite kommen. Um die potenzielle Kundschaft nicht zu enttäuschen, sollte man das neue Produkt daher zumindest beschreiben und angeben, ab wann es voraussichtlich erhältlich ist. Zusätzlich bietet sich die Möglichkeit, dass sich die Besucher für einen Newsletter anmelden, der sie über dieses und andere Produkte auf dem Laufenden hält.

Soziale Netzwerke für Predictive SEO nutzen

Ein wichtiger Faktor beim Predictive SEO ist auch das Erzeugen sozialer Signale auf Plattformen wie Facebook, Twitter oder Google+. Der Traffic, den man beispielsweise bei einem sportlichen Großereignis über eines der großen sozialen Netzwerke generieren kann, ist enorm. Dabei geht es nicht primär darum, möglichst viele Likes oder Retweets zu bekommen, sondern zum richtigen Zeitpunkt. Das Potenzial muss nur rechtzeitig erkannt werden, um die volle Reichweite abschöpfen zu können, wenn das Ereignis sattfindet.


Negative SEO – Wie die Konkurrenz Sie in die Knie zwingen kann

Ursprünglich wurden SEO-Maßnahmen entwickelt, um die Sichtbarkeit einer Internetseite zu erhöhen. Ziel ist es, der Suchmaschine zu signalisieren, dass die Seite bei einer bestimmten Anfrage eine hohe Relevanz aufweist und in den Suchergebnissen weit oben angezeigt werden sollte.

Bei Negative SEO geht es um das genaue Gegenteil: Die Reputation einer Seite soll mit Hilfe bestimmter Maßnahmen geschädigt werden. Eine so attackierte Seite wird von den Suchmaschinen als qualitativ minderwertig eingestuft und dementsprechend schlechter gerankt. Dies kann vor allem bei Online-Shops zu erheblichen Umsatzeinbußen führen.

Strategien für Negative SEO

An dieser Stelle werden zwei Vorgehensweisen vorgestellt, die dazu genutzt worden sind, fremde Seiten zu schädigen. Der Besuch der attackierten Seite soll besonders schwer bzw. unmöglich gemacht werden. Eine Strategie besteht im manipulativen Linkbuilding mit Hilfe von Spamlinks. Ein zweiter Ansatz zielt darauf ab, eine Seite komplett unerreichbar zu machen. Hierbei spricht man von einer DDos Attacke.

Was geschieht bei einer DDos Attacke?

Anfragen an die attackierte Seite werden künstlich in einem solchen Umfang erzeugt, dass die Seite an Ihre Kapazitäten stößt und nicht mehr funktioniert. Diese Anfragen werden häufig von „infizierten“ Privatrechnern aus gestellt, ohne dass die Besitzer dieser Rechner etwas von der Attacke mitbekommen. Hierbei wird billigend in Kauf genommen, dass auch andere Seiten in Mitleidenschaft gezogen werden, da sich die Attacke direkt gegen den Server wendet, der neben der attackierten auch andere Seiten hosten kann.

Cloud-Dienste verschaffen Schutz

Vertraut man beim Hosting einer elastischen Cloud, so ist man häufig auf der sicheren Seite. Die Anbieter von DDoS-Sicherheitsdiensten-Diensten schalten Ihre Server vor den eigentlichen Webserver. So wird eine allzu große Anzahl von Anfragen verhindert, noch bevor der eigentliche Server in Mitleidenschaft gezogen werden kann. Ein weiterer Angriffspunkt für eine solche Attacke ist die Ladezeit einer Seite, diese sollte möglichst gering sein. Je schneller eine Anfrage verarbeitet werden kann, umso kleiner ist die Gefahr eines möglichen Datenstaus.

Serverkapazitäten testen

Mit Hilfe eines Lasttests lassen sich Nutzer simulieren und die Auswirkungen hoher Besucherzahlen auf den Server nachvollziehen. Hierbei sollen mögliche Fehlerquellen aufgedeckt werden, die im Zuge des Systemtests nicht gefunden werden konnten. Generell geht es darum zu testen, wie das System auf Anfragen reagiert und wie lange es dauert diese zu verarbeiten. Bezüglich der DDoS Problematik empfiehlt sich ebenfalls ein Stresstest, bei dem das System bis an seine Grenze und darüber hinaus belastet wird. Bei einem solchen Test stellt sich heraus wie anfällig ein Server für einen entsprechenden Angriff ist und welche Vorkehrungen getroffen werden sollten.

Negative SEO mit Spam-Links

Seit dem Algorithmus-Update, das im Mai 2012 ausgerollt wurde und unter dem Namen Penguin für Furore sorgte, scheint Google für Negative SEO mit minderwertigen Links besonders anfällig geworden zu sein. Es sei möglich das Ranking fremder Webseiten bei Google negativ zu beeinflussen, allerdings sei dies mit einem relativ hohen Aufwand verbunden, so Matt Cutts, Leiter des Google Webspam-Teams.

Reale Gefahr für alle Webmaster

Besonders gefährdet scheinen junge Internetseiten und solche, die sich in einer besonders konkurrenzbetonten Umgebung behaupten müssen. Websites, die noch nicht die Zeit dazu hatten, eine positive Reputation aufzubauen, sind für Attacken mit minderwertigen Links besonders anfällig. Die Suchmaschine kann eine solche Attacke schnell als eine „illegale“ Linkbuilding-Maßnahme des Seitenbetreibers fehlinterpretierten und die Seite in Folge dessen abstrafen oder gar aus dem Google-Index streichen.

Dem Ranking von Seiten, die ihre Reputation über einen längeren Zeitraum aufgebaut haben, dürfte  ein kurzzeitiger „Beschuss“ mit schlechten Links nicht schaden, da die Suchmaschine die Qualität der Seite weiterhin anerkennt. Bei Seiten in einem stark umkämpften Konkurrenzumfeld, kann es dem Angreifer allerdings als lohnenswert erscheinen, mehr Ressourcen für eine Negative-SEO-Attacke freizugeben und diese über einen längeren Zeitraum aufrechtzuerhalten. Auf diese Weise kann mit der Zeit auch die Reputation einer bereits gut etablierten Seite geschädigt werden.

Ist mein Projekt betroffen?

Google bietet mit den „WebmasterTools“ einen kostenlosen Service an, mit dem man herausfinden kann, von welchen Seiten das eigene Projekt verlinkt wird. Der Webmaster erhält automatisch eine Benachrichtigt, wenn von Google ein unnatürlicher Linkaufbau feststellt wird. Weiterhin gibt es verschiedene Tools mit denen die Möglichkeit besteht Backlinkstrukturen zu einer Domain zu überwachen.

Angriffe werden häufig erst dann erkannt, wenn das Kind bereits in den Brunnen gefallen ist und die aus der organischen Suche generierten Besucherzahlen einbrechen.  In diesem Fall empfiehlt sich eine Untersuchung der Backlinkstruktur hinsichtlich der Qualität der Verlinkungen. Vor allem folgende Merkmale sprechen für schädliche Links:

  • Die Linkquelle, also die Seite, auf der sich der Link befindet, ist nicht im Google-Index zu finden, befindet sich also im so genannten „hidden web“. Das kann ein Zeichen dafür sein, dass die Seite von Google abgestraft wurde und eine Verlinkung mit dieser Seite schädlich sein kann.
  • Artikelverzeichnisse als Linkquelle können ein Indiz für minderwertige Links sein, da sie leicht aufzubauen sind; gleiches gilt auch für Massenpostings in Foren, Links aus Social Bookmarks, „Spam-Links“ aus Blogkommentaren und für Links die auf „Linkfarmen“ produziert worden sind.
  • Google kämpft seit langer Zeit gegen den Handel mit Links, daher sind gekaufte Links immer mit Vorsicht zu genießen. Google scheint immer besser nachvollziehen zu können, welche Links gekauft wurden und welche natürlich entstanden sind.

Schlechte Links müssen entwertet werden

Die als minderwertig identifizierten Links müssen beseitigt werden, um den negativen Auswirkungen entgegenzusteuern. Eine Möglichkeit besteht darin, den jeweiligen Webmaster zu kontaktieren und ihn um die Entfernung der Links zur eigenen Seite zu bitten. Angesichts der großen Menge unterschiedlicher Linkquellen gestaltet sich dies als langwierig und zeitaufreibend, obgleich es die sicherste Methode ist, Einfluss auf die Verlinkungen im Internet zu nehmen. Eine weitere Möglichkeit bietet das seit Oktober 2012 erhältliche Disavow-Tool von Google, das die Entwertung bestimmter Links ermöglicht.

Hierbei ergibt sich jedoch ein Problem bei Attacken, die über einen längeren Zeitraum gefahren werden, denn die Nutzung dieses Werkzeuges setzt die Dokumentation jedes einzelnen Links voraus, damit dieser dann von Google entwertet werden kann. Bei einer großen Anzahl von Links, die täglich über einen längeren Zeitraum gesetzt werden, kann sich ein solches Unterfangen schnell zu einem Kampf gegen Windmühlen entwickeln.

Fazit

Negative SEO funktioniert und stellt für jeden Webmaster eine reale Bedrohung dar. Manchmal erscheint es einem Wettbewerber als erstrebenswerter, der Konkurrenz zu schaden, anstatt Ressourcen in die eigene Reputation zu investieren. Damit man diesen unmoralischen Menschen eine möglichst kleine Angriffsfläche bietet, sollten regelmäßig Backlink-Audits zum Schutz des eigenen Linkgraphen durchgeführt werden.

Auf diese Weise können Negative-SEO-Attacken frühzeitig erkannt und abgewehrt werden. Alles in allem liegt der effektivste Schutz vor negativer SEO darin, sukzessive an der Reputation des  Projektes zu arbeiten. So  wird Google signalisiert, dass zu einem bestimmten Thema fachliche Kompetenz vorliegt und dem Besucher die nachgefragten Informationen zur Verfügung gestellt werden.


Googles Hummingbird Update

– Das ändert sich für Webmaster.

Heimlich, still und leise hat Google eine der größten Veränderungen in seiner mittlerweile 15-jährigen Geschichte durchgeführt. Wie der Suchmaschinengigant letzte Woche auf einer Pressekonferenz anlässlich seines 15. Geburtstages verkündete, wurde bereits vor etwa einem Monat ein gänzlich neuer Suchalgorithmus mit dem Namen „Hummingbird“ (z. Dt. Kolibri) eingeführt.

Dabei handelt es sich laut Google nicht etwa um Anpassungen am alten Algorithmus, wie sie mit mehr oder weniger Wirkung regelmäßig durchgeführt werden, sondern um die nächste Evolutionsstufe der Google-Suche.

Gemessen an seiner Körpergröße gilt der Kolibri als schnellstes Wirbeltier der Welt. Außerdem ist er dank 40 bis 50 Flügelschlägen pro Sekunde in der Lage, sich äußerst flexible und präzise zu bewegen. Genau diese Tugenden verspricht sich Google auch von seinem Hummingbird, der die Suchergebnisse noch schneller und präziser ausliefern soll als der bisherige Algorithmus.

Bessere semantische Zuordnung

Laut Google sollen ca. 90 % aller weltweiten Suchanfragen von dem neuen Algorithmus betroffen sein. Wie sich der Einfluss auf die Suchergebnisse in der Praxis darstellt, wurde jedoch nicht bekannt. Die Richtlinien für Webmaster haben sich ebenso wenig geändert wie die über 200 Ranking-Faktoren, die ihre Relevanz behalten. Die Gewichtung der einzelnen Faktoren könnte sich jedoch weiter in Richtung Content Based Ranking verschieben.

Die beiden einschneidenden Updates am alten Algorithmus (Panda und Penguin), die für eine erhöhte Qualität der Suchergebnisse durch Bevorzugung von Websites mit gutem Content und natürlichen Linkprofilen sorgten, sind indes wohl im neuen Algorithmus übernommen worden.

Mit Hummingbird versucht Google, komplexe Suchanfragen besser zu interpretieren. In den Suchergebnissen sollen die Intention einer Suchanfrage bzw. die Bedürfnisse des Nutzers stärker berücksichtigt werden als bisher. Damit geht Google einen weiteren Schritt weg vom Keyword-Matching hin zu einem besseren Verständnis der jeweiligen Suchanfrage.

Conversational Search profitiert

Anstatt allein die verwendeten Keywords zu berücksichtigen, können durch die weiter verfeinerte semantische Zuordnung auch ganze Sätze thematisch besser eingeordnet werden. Die Suchanfrage wird in einen Kontext gesetzt und die verwendeten Suchbegriffe in diesem Kontext auf ihre Substitutionselastizität hin gewichtet. Gegebenenfalls werden Begriffe aus der Suchanfrage ersetzt, um potenziell bessere Ergebnisse zu liefern.

Davon profitiert insbesondere die Conversational Search, also die Suche per Spracheingabe auf einem Mobilgerät. Dank der Berücksichtigung vergangener Suchanfragen versteht die Android-App von Google nun auch implizite Bezüge. So lässt sich im Anschluss an eine Suche nach dem neuen World Trade Center in New York beispielsweise fragen, „Wie hoch ist es?“ Google versteht, dass der vorher gesuchte Begriff gemeint ist, und liefert die Antwort: 541 m.

Hummingbird im Überblick:

  • gänzlich neuer Ranking-Algorithmus
  • vermutlich seit Ende August live
  • ca. 90 % aller Suchanfragen sollen betroffen sein
  • vor allem komplexe Suchanfragen werden besser interpretiert
  • erkennt verschiedene Bedeutungen/Synonyme
  • setzt Suchanfragen in einen Kontext
  • liefert Antworten auf konkrete Fragen
  • Vorteilhaft bei gesprochenen Suchanfragen

Integration verschiedener Google-Dienste

Alles in allem zeichnet sich eine Fortsetzung von Trends ab, die in verschiedene Google-Diensten bzw. -Patenten bereits zu finden sind. Für die Ausgabe der Suchergebnisse könnte also auf Erkenntnisse aus dem Knowledge Graph, Google Now, Google Instant sowie die Auswertung von durch Cookies erhobene Daten zurückgegriffen werden. Mit Google Now war Google schon zuvor in der Lage, einfache Fragen z.B. nach dem Wetter oder nach Wechselkursen kontextbasiert zu beantworten.

Hummingbird scheint eng mit den Informationen aus dem Google Knowledge Graph verknüpft zu sein, der im Zuge der Einführung des neuen Algorithmus‘ erweitert wird. Knowledge-Graph-Inhalte erscheinen in einer separaten Box direkt über oder neben den Suchergebnissen und beinhalten zum Beispiel Informationen über berühmten Personen oder das aktuelle Wetter. Nun können im Knowledge Graph auch Objekte miteinander verglichen bzw. verschiedene Auflistungen zu einer Suchanfrage abgerufen werden.

Wie können Webmaster auch künftig für ein gutes Ranking sorgen?

Es scheint so, dass Google im Hummingbird all die Neuerungen und Erkenntnisse vereint und dabei ausgehend von einer immensen Datenbasis die Suchergebnisse so anordnet, dass die durch Google interpretierten tatsächlich hinter einer Suchanfrage liegenden Bedürfnisse des Nutzers bestmöglich befriedigt werden. Hierzu tragen die im alten Algorithmus weitgehend ausgereiften Anti-Spam Maßnahmen durch die Penguin- und Panda-Updates bei.

Davon ausgehend sollten Webmaster zum einen auf einen sauberen und natürlichen Linkgraphen ihrer Websites achten. Das Credo „Content is King“, das mit dem Panda-Update deutlich an Bedeutung gewonnen hat, wird darüber hinaus zunehmend entscheidender für eine gute Platzierung in den Suchergebnissen. Dass die übermäßige Anhäufung von Keywords auf einer Website (Keyword-Stuffing) das Ranking nachteilig beeinflusst, ist bekannt.

Durch die Substituierung von Keywords in der Suchanfrage der Nutzer durch Hummingbird gewinnt die Qualität der Texte in besonderem Maße an Bedeutung. Denn Hummingbird ist vor allem eines: semantischer denn je. Daher ist es ratsam, den Inhalt einer Website auf die speziellen Kundenbedürfnisse hin auszurichten, die mit der Seite befriedigt werden sollen, und dabei  – insbesondere durch die Nutzung von Synonymen – sprachliche Vielfalt in den redaktionellen Texten anzustreben.


Ranking Boost durch Panda Update 3.9.1

Hintergrund

Die Änderung des Google Algorithmus durch das Panda Update im Februar 2011 sorgte für eine kleine Revolution bei der Bewertung von Internetseiten durch Google. Zur Erinnerung: Der zentrale Fokus des Updates liegt darin, dass Google die Qualität seiner Suchergebnisse durch die Qualität der auf den Internetseiten angebotenen Inhalte – gemäß dem Schlagwort „Content is King“ – erhöhen möchte. Für Webmaster bedeutet dies qualitativ hochwertige und themenrelevante Inhalte anzubieten, um letztlich auch ihr Ranking zu erhöhen.

Die glücklichen 1 %

Über Twitter bekannte sich Google am 22.08.2012 die Panda Daten zwei Tage zuvor aktualisiert zu haben. Offiziell sollen weniger als 1 % aller Suchanfragen von der Aktualisierung betroffen sein. Die Auswirkungen des im deutschsprachigen Raum wenig diskutierten Panda Update 3.9.1 auf einige Internetseiten waren mitunter allerdings sehr bedeutsam. Dies möchte ich anhand eines von mir beobachteten Projekts darstellen.

Zu sehen ist der Verlauf des Sistrix Sichtbarkeitsindex (SI) in der Zeit nach Einspielung des ersten Panda Updates. Die Werte des SI zeigen die Sichtbarkeit einer Domain in den Google Suchergebnissen an. Der Sichtbarkeitsindex wird aus der Platzierung einer Domain bei den für diese Seite überwachten und nach zu erwartendem Traffic gewichteten Keywords ermittelt. Untersuchungen und Erfahrungen zeigen, dass der Index stark positiv mit der Anzahl der Besucher korreliert. Näherungsweise kann für einen SI von 1 eine tägliche Besucheranzahl von ca. 1000 Besuchern über die Suchergebnisseiten angenommen werden, was sich auch mit meinen Beobachtungen von der betrachteten Domain deckt.

In dem Verlauf des SI wird die Aktualisierung des Panda Update 3.9.1 auf den 03.09.2012 (Punkt E) datiert. Tatsächlich trat die Erhöhung des Sichtbarkeitsindex von 0,1 auf 4,1 also um 4000 % zum 01.09.2012 quasi über Nacht auf.  Somit erhielt die Webseite von jetzt auf gleich einen Besucheranstieg von ca. 100 auf 4000 User.

Rehabilitation statt Willkür

Falls Sie sich angesichts soll willkürlich wirkender Rankingschwankungen Sorgen um Ihre Serverkapazitäten machen, seien Sie beruhigt. Für die beobachtete Domain erwies sich das Update als zweite Chance, nachdem sie in der Zeit vor Panda und Penguin massiv „optimiert“ worden ist. Die Maßnahmen beinhalteten neben der inhaltlichen Optimierung auch einen exzessiven Linkaufbau mit Keywordlinks. Durch Panda 3.9.1 erhielt die Seite nun nahezu ihre alten Rankings wieder.

 

Auch wenn Hoffnung für die von den Panda und Penguin Updates gebeutelte Webmaster aufkeimt, sind solch unnatürliche Schwankungen nicht wünschenswert. Der beste Weg, um solchen massiven Rankingschwankungen aus dem Weg zu gehen, bleibt weiterhin sich auf die Erzeugung von Mehrwert für den Benutzer der Internetseite zu konzentrieren. Dies gilt in besonderem Maße auch für durch Panda und Penguin negativ beeinflusste Seiten: Google verzeiht auch Fehler.


Produkttests bringen Links und steigern Abverkäufe

Produkttests eignen sich dazu, um ein Produkt aus dem eigenen Online Shop im Netz vorzustellen und zu verbreiten. Bei Produkttests werden die angebotenen Produkte des eigenen Unternehmens nach Absprache an ausgewählte Produkttester versendet. Um potenzielle Produkttester ausfindig zu machen, genügt eine Recherche im Internet. Es handelt sich dabei meist um Blogs von privaten Webseitenbetreibern, die darauf aus sind, ein vom Unternehmen vorgeschlagenes oder selbst ausgewähltes Produkt aus dem Shop kostenfrei zu erhalten und für den weiteren Gebrauch behalten zu dürfen. Produkttester, die gewerbliche Interessen verfolgen, kommen ebenfalls für einen Produkttest in Frage.

Ziele eines Produkttests für den Shop-Betreiber

Ziel ist es, eine positive Produktrezension zu erhalten. Die Produkttester testen das Produkt nach Erhalt und veröffentlichen darüber einen Bericht auf ihrer Seite. Dadurch entsteht ein wertvoller Verweis zur Website, welcher dem Suchmaschinenranking zugute kommt. Doch in erster Linie dient ein Testbericht als PR-Maßnahme für das Unternehmen, welches die Produkte anbietet. Viele der Testblogger sind mit ihren Blogs miteinander verknüpft und auch auf Social-Media-Kanälen wie Facebook, aktiv, so dass eine virale Kommunikation über das Produkt und letztlich auch über das Unternehmen erfolgt, ohne dass man selbst weitere Maßnahmen zur Distribution in Erwägung ziehen muss. Durch diese Verbreitung werden zudem neue Besucher generiert, wodurch die Besucherzahlen der eigenen Webseite steigen.

Produkttest zusammen mit Produktlaunch

Ein Produkttest eignet sich besonders gut für eine Produkteinführung. Neben der automatischen Verbreitung von Meinungen und Verbesserungsvorschläge können über das auf dem Markt neu eingeführten Produkts weitere Umsätze und Bewertungen entstehen.