Lädt...

Webspam

Erklärt von den TwinGeeks | SEO Agentur Berlin
Home / SEO / Webspam

Was ist Webspam?

Der Webspam bezeichnet alle Arten von Spam im Internet. Jedoch sollte er von dem E-Mail-Spam unterschieden werden, welcher sich auf das unerlaubte Versenden von Mails bezieht. Stattdessen bezeichnet der Begriff unseriöse Methoden, um das Ranking von Suchmaschinen zu verbessern oder Nutzer auf Webseiten zu locken. Suchmaschinen, allen voran Google, versuchen seit Jahren solche Methoden abzustrafen und ihre Algorithmen so anzupassen, dass in erster Linie guter Content zu besseren Rankings führt.

Entstehung des Begriffs

Der Begriff geht wahrscheinlich auf den 2. Weltkrieg zurück. Kriegsbedingt gab es damals in Großbritannien eine Lebensmittelknappheit, jedoch konnten die Engländer in fast jedem Laden das Dosenfleisch „Spiced Ham“ kaufen, welches auf der Dose groß die Buchstaben „SPAM“ führte. Das wurde später in einem Sketch der Comedy Show „Monty Python's Flying Circus“ aufgegriffen. In diesem Sketch ging es um ein Café, dessen Speisekarte nur aus Gerichten mit „Spam“ bestand. Im Bereich des Internets trat der Begriff das erste Mal in den 1970ern auf. Hier bezeichnete er das Verhalten einiger User der sogenannten „Multi User Dungeon“-Spiele, den Chat mit Nachrichten zu überschwemmen. Der erste elektronische Kettenbrief wurde 1988 verfasst und trug den Titel „Make Money Fast“. Hierbei handelte es sich um nichts weiter als ein Schneeballsystem. 1994 kam es zum „Green Card Spam“. Die Anwälte Laurence Canter und Martha Siegel versandten massenweise E-Mails mittels eines Programms. Darin gaben sie ein Gewinnspiel bekannt, bei dem die Teilnehmer Green Cards gewinnen konnten. Ab da an hatte sich der Begriff fest etabliert.

Unterschiedliche Arten des Webspams

Der Begriff „Webspam“ bezieht sich in erster Linie auf die Manipulation von Webseiten und Suchmaschinen. Eine Form davon lässt sich auch als „Suchmaschinen-Spamming“ bezeichnen. Konkret geht es darum, auf künstlichem Wege Webseiten ein gutes Ranking in Googles und anderen Suchmaschinen zu verschaffen. Auf der Webseite selbst und auch auf fremden Webseiten soll der Algorithmus von Google so manipuliert werden, dass die Webseite weiter oben in den Suchergebnissen auftaucht.

Eine früher sehr beliebte Methode zur Manipulation war das „Keyword Stuffing

Früher war für den Algorithmus von Google die Anzahl der Schlüsselwörter und ihre Kombination entscheidend darüber, wie die Webseite indexiert wurde. Und der Nutzer der Suchmaschine sie finden würde. Webseitenbetreiber konnten dazu übergehen, das gesuchte Schlüsselwort in Massen auf der Webseite unterzubringen und erhofften sich dadurch ein besseres Ranking. Weniger auffällig war die Methode, die Schlüsselbegriffe in die Meta-Descriptions und dem Meta-Title unterzubringen. Das Problem beim Keyword Stuffing ist, dass sich mitunter Webseiten an die Spitzen der Suchergebnissen setzten, auch wenn ihre Inhalte mitunter nichts mit dem zu tun hatten, wonach der User suchte. Teilweise wurden auch komplett zusammenhangslose Schlüsselwörter untergebracht, denn je mehr Schlüsselwörter, desto besser.

Abgesehen davon gab es noch die Möglichkeit, „Hidden Text“ auf der Webseite zu verstecken.

Dabei handelt es sich um Text, der auf der Webseite vorkommt, aber für den Besucher nicht lesbar ist. Oftmals wurde dabei die Schriftgröße auf Null gesetzt oder die Farbe des Textes so angepasst, dass der Besucher ihn nicht bemerken würde. Der Google-Bot jedoch las den Text im Code und damit die darin versteckten Schlüsselwörter.

Eine gänzlich andere Methode stellt das „Cloaking“ dar.

Hierbei wird dem Besucher eine andere Webseite präsentiert, als der Crawler von Google indexieren wird. Für Google ist die Seite oftmals eine textbasierte Webseite mit einer Fülle von Keywords. Der Besucher bekommt jedoch ganz andere Inhalte geliefert, welche für den Crawler unsichtbar sind. Bei der „Redirection“ wird der Nutzer automatisch auf eine gänzlich andere Seite weitergeleitet, die nichts mit den Inhalten zu tun haben kann, nach denen er gesucht hatte.

Link-Spamming ist eine weitere beliebte Methode, um das Ranking einer Webseite zu Manipulieren.

Mittlerweile gehört das Linkbuilding zu einer der wichtigsten und effizientesten Verfahren für ein gutes Google-Ranking. Jedoch muss sich dieser Linkaufbau organisch ergeben. Damit die Keywords nicht das alleinige Mittel zur Suchmaschinenoptimierung bleiben, begann der Google-Bot damit, die Hyperlinks zu indexieren. Der Suchmaschine erscheint eine Webseite dann als relevant, wenn es viele Backlinks gibt, welche zu dieser Webseite führen. Denn, so die Logik dahinter, je mehr auf sie verlinkt wird, desto wichtiger, nützlicher und beliebter ist die Webseite. Und damit verdient sie sich ein hohes Ranking bei den Suchergebnissen. Daraus ergab sich ein ähnliches Problem wie beim Keyword Stuffing: Es wurde ein unnatürliches Linkbuilding betrieben. Unter anderem wurden dazu Webseiten angelegt, deren einziger Zweck darin bestand, auf andere Seiten zu verlinken. Sie besaßen keinen Content, aber der Google-Bot indexierte dennoch all die Links. Zum Link-Spamming gehört das Setzen von Links innerhalb von Foren und oder den Kommentaren von Blogs. Oftmals werden dazu Bots verwendet oder es lassen sich sogar Dienste einkaufen, bei denen der Dienstleister Accounts erstellt und auf verschiedenen Webseiten Hyperlinks hinterlässt. Eine weitere Methode des Link-Spammings stellt das Setzen von Anchortexte dar. Bei diesen handelt es sich um Wörter oder Textabschnitte innerhalb eines Textes, welche auch als Hyperlinks fungieren. Bei einem künstlichen Linkaufbau wird der Hyperlink nichts mit dem Inhalt des Textes oder dem Content der Webseite zu tun haben.

Googles Reaktion: Pinguin Update

Um Webspam im Internet zu unterbinden, nimmt Google noch immer Updates seines Such-Algorithmus vor. Einer der gewichtigsten Anpassungen des Algorithmus stellt das Pinguin-Update dar. Hierbei handelt es sich um eine Reihe von Updates und Data Refreshs im Zeitraum von 2012 bis 2013. Das Ziel des Google Penguin Updates war es, die Manipulation von Suchergebnissen zu bekämpfen. Schlussendlich sollte der Nutzer von Google in erster Linie guten Content finden. Um das zu erreichen, führte Google einen neuen Algorithmus ein, welcher unnatürliche Seiten- und Suchmaschinenoptimierung unterbinden sollte. Das Hauptaugenmerk lag dabei auf das Linkbuilding und das Keyword Stuffing.

Vor allem der Linkkauf wird nach dem Update von Google rigoros abgestraft, soweit es möglich ist. Vor allem sind die Maßnahmen gegen gesamte Linkkauf-Netzwerke und deren Betreiber gerichtet. Der Algorithmus versucht nun auch unnatürlich hohe Zahlen von Anchortexten innerhalb eines Textes zu erkennen und abzustrafen. Zu schnelles Linkbuilding wird ebenfalls als künstlich erkannt und mit einem niedrigeren Ranking bestraft. Besonders wichtig ist nun die Wertigkeit der Backlinks. Der Algorithmus weist den einzelnen Webseiten eine Qualitätsstufe zu. Links, die von einer hochwertigen Webseite ausgehen, sind besonders wertvoll. Außerdem versucht der Algorithmus nun, den Bezug der Links zum Content der Webseite einzuschätzen. Damit können Linkfarmen als manipulierend erkannt werden. Links, welche von solchen Webseiten ausgehen, werden als minderwertig eingestuft und führen zur Abstrafung durch Google. Und werden Links in irrelevanten Kontexten gespamt, erkennt das der Algorithmus ebenfalls.