Cloaking
Als Cloaking bezeichnet man das Vorgehen von Webseiten-Betreibern, Suchmaschinen eine andere Seite zu präsentieren als anderen Besuchern, um ihre Indizierung und das Ranking in Suchmaschinen zu verbessern.
Da Suchmaschinen ausschließlich Textinhalte lesen und indizieren, wird ihnen eine textbasierte, strukurell optimierte HTML-Seite ausgeliefert. Menschliche Besucher, die einen Browser benutzen, erhalten eine Seite, die multimediale Inhalte wie Flash-Filme oder Videos enthalten kann, deren Inhalte für Suchmaschinen unsichtbar sind.
Idealerweise ist die optimierte Seite genau auf den tatsächlichen Inhalt der Multimedia-Website abgestimmt. Der Verfasser kann mit dieser Methode etwa auch seine Meta-Tags und Optimierungsalgorithmen vor den Augen der Konkurrenz schützen.
Da diese Methode in der Vergangenheit oft missbraucht wurde, um Suchmaschinen andere Inhalte vorzuspiegeln, als tatsächlich in der Website enthalten war (Keyword-Spamming, Spamdexing), wird die Methode von Suchmaschinenbetreibern sanktioniert. Spidernamen werden nicht mehr öffentlich gemacht, um eine Zuordnung zur Suchmaschine zu verhindern, oder es werden mehrere Spider eingesetzt, ein offizieller wie etwa Scooter von Altavista oder Slurp von Inktomi, und unbekannte, inoffizielle, die sich ggf. sogar als Browser bei der Seite zu erkennen geben. So können Suchmaschinenbetreiber herausfinden, ob ein einfaches Cloaking (UserAgent Cloaking) angewandt wird. Allerdings ist professionell durchgeführtes Cloaking, auch IP-Cloaking oder IP-Delivery genannt, für die Suchmaschinen recht schwer zu enttarnen, da die Spidererkennung auf Basis von IP-Adressen, Reverse DNS und Class C Netzwerken erfolgt, die den Suchmaschinen zugeordnet werden können. Voraussetzung für ein funktionsfähiges IP–Cloaking sind aktuelle IP–Listen der Spider.
Weiterhin besitzen die Spider und Browser jeweils eine Art „Footprint“, durch den man beide unabhängig vom UserAgent recht gut unterscheiden kann.
Die meisten Suchmaschinen enthalten entsprechende Vorschriften in ihren Nutzungsbedingungen und in der Regel werden die entdeckten Seiten dauerhaft aus dem Index entfernt und so für dem Seitenbetreiber das Gegenteil dessen erreicht, was erreicht werden sollte.
|