SEO mit dem Brecheisen
Üble Tricks - Spamdexing
Für die wahrhaftigen SEOs sind Keywords, Description usw nur "Kinderkram" - Google muss eine Seite prinzipiell niemals gespidert haben, um sie ganz vorne anzuzeigen. Oder es werden Brückenseiten in 100000er Anzahl generiert und auf 100e Domains aufgeteilt - gleich mit Link zur Members Area. Ich habe schon Google-SERPs gesehen, von denen 50 Ergebnisse zu ein und derselben Seite führten.
Weltweit kommen geschätzte 80% aller Spam-Mails von nur 20 verschiedenen Firmen/Personen - wobei Amerikaner glauben, sie kommen aus Europa und Europäer umgekehrt - egal. Es ist einiges an Know How und noch mehr an "gutem Draht zum (Backbone-) Provider" nötig, um derartig viele Mails durchs Netz zu jagen.
Ähnlich verhält sich die Situation im Internet: Geschätzte 30% aller für Suchmaschinen auffindbaren Seiten dienen nur dazu, einige wenige Seiten in die Ränge zu bringen.
Content Spam
Wer viele Lottoscheine abgibt, der wird wohl eher gewinnen als mit nur einem Tipp. Dasselbe Prinzip auf Websites übertragen bedeutet, möglichst viele Seiten mit mehr oder weniger sinnvollem Content zu füllen. Am einfachsten geht das, indem man schreiben lässt (Foren, Webverzeichnisse) oder indem man frei verfügbaren Content verwendet (dmoz). Obwohl diese Seiten den selben Zweck wie Brückenseiten erfüllen, können sie schwer abgestraft werden, weil sie ja einen - vorgeschobenen - Sinn haben.
So geht das:
Die Seiten in diesem Verzeichnis sind nicht leer - alle enthalten soviele Keywords und rundherum, dass Google auch gleich die richtigen Inserate dazu zeigen kann. Das Verzeichnis enthält NICHTS außer Google-Anzeigen, die als die Einträge des Webkatalogs dargestellt werden.
Diese 10000en Seiten werden in den Google-Index gespült und bringen den Betreibern bis zu 5€ pro Klick - es läppert sich was zusammen.
Die Grenze zu Brückenseiten wird in anderen Verzeichnissen überschritten: die freien ODP-Daten werden von Spammern verwendet, allerdings auf eigene Bedürfnisse zugeschnitten, indem etwa das Wort "Hilfe" überall durch "Rechtsschutzversicherung" ersetzt wird:
Im Original geht es um Hilfe gegen Chipkarten - Viren (Satire)
Ebenso häufig findet man Seiten, auf denen - als Suchergebnisse getarnt - beliebige passende Textblöcke zusammengetragen wurden; sogar mit Link auf diese Seiten. Hier wird Googles Vorliebe für Hubs ausgenutzt. Die Haltbarkeit derartiger Konstrukte ist recht gering, allerdings wird permanent Nachschub erzeugt, womit wir bei den Brückenseiten angelangt sind.
Brückenseiten
Wir reden hier nicht von kleinen, mehr oder weniger liebevoll gemachten Brückenseiten, sondern von Ansammlungen jenseits der 1000er Grenze: Für jedes mögliche Wort, für jede mögliche Phrase, für alles eine eigene Seite. Da Google mittlerweile Weiterleitungen erkennt*, tauchen diese sehr häufig sichtbar in den SERPs auf, vor allem im Porno-Bereich, um den sich Google nicht recht kümmert. (*Paradox? nein: Die Seiten waren schon immer da, nur haben wir sie nie gesehen, weil sie durch die Weiterleitung nicht sichtbar waren. Jetzt sind diejenigen Seiten ohne Weiterleitung nach vorne gekommen - und eben sichtbar)
Beim Suchbegriff "geile stories" etwa ist fast jeder angezeigte Treffer eine Brückenseite:
Willkürlich zusammengewürfelter Text, Groß/kleinschreibung völlig egal -
eine typische Brückenseite.
Brückenseiten sind kurzlebig, normalerweise sind sie nach einigen Tagen wieder verschwunden, sie lassen sich aber so einfach und schnell erzeugen, dass Suchmaschinen nicht nachkommen können: Die gesamte Pracht all dieser Seiten ist nur virtuell vorhanden - die Seite wird erst erzeugt, wenn sie angefordert wird. In Wahrheit ist nur ein Script und eine Keyword-Datenbank vorhanden.
Ganz Schlaue nutzen die Daten von Suchmaschinen oder basteln sich selbst eine, um schon im Moment der Abfrage eine passende Brückenseite zu erzeugen.
Kommentar/Gästebuch Spam:
Eine weitere Methode seine Brückenseiten in der Bekanntkeit für die Suchmaschinen zu steigern, ist die Taktik sich in öffentliche Gästebücher oder als Kommentar zu einem Blog-Beitrag mit einem Hinweis durch einen versteckten Link auf die entsprechende Brückenseite einzutragen. Vornehmlich erfolgen diese Aktionen voll-automatisiert durch sogenannte Formular-Bots, die diese Arbeit für den Brückenseiten-Bastler übernehmen. Die meisten größeren Blog-Software-Anbieter und verschiedene größere Gästebuch-Services haben bereits auf diese Art von Spam regiert und versehen Links in diesen Sektionen automatisch mit dem neuen no-follow Attribut, welches dazu führt, dass dem Link keine Linkpower mehr vererbt wird. Somit verliert ein derartiger Spam-Eintrag einen Großteil seines Nutzen.
Site-Hacking
Ein Trick, der immer mehr in Mode kommt: Man hackt sich in den FTP-Server oder das Redaktionssystem und setzt sich unauffällig seine Links einfach selber. Einige Redaktionssysteme sind extrem anfällig und wer denkt zB. bei den Seiten gemeinnütziger Organisationen an einen Hacker-Angriff - zumal er auch keine sichtbaren Spuren hinterläßt? Ebenso sind manche FTP-Server so schlampig konfiguriert, dass ein einziges Passwort Tür und Tor für alle gehosteten Domains öffnet. Die so gesetzten Links bleiben oft jahrelang unentdeckt und nach so langer Zeit kann nicht mehr nachverfolgt werden, wie es dazu kam; das Risiko für den Hacker ist also minimal.
Bei statischen Seiten, die zumindest so halbwegs gepflegt werden, ist das Risiko natürlich geringer. Trotzdem: Beim geringsten Hinweis nachsehen und mit einem Analyse-Tool alle externen Links checken. Das sollte man ohnehin gelegentlich machen, so manche früher gute Site hat inzwischen ganz andere Inhalte.
Log-Spam
Eine recht perfide Methode, zu Links zu kommen, richtet sich an die Webstatistik-Seiten: Ein Spider tarnt sich als eine zu pushende Seite und erzeugt künstlich Zugriffe (Referrers) auf gut gerankte Seiten - wodurch der Link in die Web-Statistiken gelangt. Da viele Webmaster (in der falschen Annahme, dass Suchmaschinen die Statistiken nicht finden würden) auf Zugriffscodes verzichten oder die Statistiken überhaupt offen liegen, können sich hier Spammer die Links quasi selbst setzen. Tipp: Schütze deine Webstatistik mit einem Passwort!
In der Praxis ist der Sinn dieser Methode eher umstritten: Bei gut besuchten Seiten müssen schon sehr viele Zugriffe erzeugt werden, um dauerhaft in den Stats zu bleiben, die ja dann wiederum Links auf 1000e andere Seiten enthalten.
Außerdem gilt als sicher, dass zumindest Google die Statistiken nicht mehr spidert - wenn er sie als solche erkennt.
PageRank-Spam, Linkfarmen
Diese Methode richtet sich hauptsächlich an Google, was aber bei über 60% Marktanteil ohnehin genug ist. Mit Linkfarmen werden riesige Konstrukte über viele Server hinweg verteilt - wichtig ist eine möglichst breite Streuung an IP-Adressen - die sich gegenseitig zu PageRank verhelfen. Dieser wird dann gegen Einwurf großer Scheine an Kunden "vererbt"; die Seite des Kunden wird überhaupt nicht angetastet.
Cloaking
Die Suchmaschinen sieht etwas anderes als ein Browser (=Besucher). Wer so etwas macht, muss ständig auf dem neuesten Stand sein, weil Suchmaschinen natürlich auch "inkognito" unterwegs sind. In einschlägigen Foren werden die "weggeworfenen" (=veralteten) Listen dann veröffentlicht, um sich die Konkurrenz vom Hals zu halten.
Zwar ist Cloaking für "Normal-User" und "Normal-Webmaster" nicht spürbar, ein unangenehmer Nebeneffekt ist aber, dass Suchmaschinen jedes kleine PHP-Skriptchen - und sei es nur eine Browserweiche - argwöhnisch behandeln und die davon verlinkten Seiten nur sehr zögerlich spidern.
Was hilft es, Spam zu melden?
Gar nichts: Zum einen lebt man bei Google immer noch den Traum, dass menschliche Eingriffe nicht nötig sein sollen, zum anderen wäre dadurch Mißbrauch Tür und Tor geöffnet: Jemand könnte auf die Idee kommen, sich den Platz an der Spitze durch Vernadern der Konkurrenz frei zu machen. Etwa indem er eine Linkfarm "für!" die missliebige Konkurrenz so einrichtet, dass sie nichts bringt, aber auffällt. Alles läßt sich automatisieren, das Versenden von Beschwerde-Mails mit gefälschtem Absender genauso wie das Klicken auf die Smileys in der Google Toolbar. Was sollen Suchmaschinen-Betreiber also mit Spam-Meldungen anfangen, wenn diese selbst schon Spam sein können? Dasselbe, was wir mit Spam machen: unbeachtet verwerfen.
Kommentare:
Hallo,
Antworten
Ein sehr gelungener Artikel, gefällt mir.
Viele Wege führen nach "Rom", aber nicht jeder ist der beste. Ich habe meine Blogs schon sehr gut geschützt und trotzdem schaffen es manche Hacker immer wieder sich einen Weg zu suchen, um rein zu kommen.
Aber mit welchen Mitteln gearbeitet wird um irgendwie Geld machen zu können, übersteigt immer wieder mein Wissen.
Ich mache alles "zu Fuß" und arbeite wie blöde und komme so Mühsam vorwärts. Aber vielleicht wird die Mühe auch mal belohnt und ich muss keine Angst vor übler nachrede haben.
Lg. Maik Strunk