Nämä "Ghost sivut" eivät ole koskaan todella nähnyt mitään todellista henkilöä lukuun ottamatta ylläpitäjät että sen loi tietenkin. Kun oikeita ihmisiä käymään sivustolla käyttäen peittämistä, peittämistä tekniikka (joka perustuu yleensä Perl /CGI) lähettää ne todellisia sivu, jotka näyttävät hyvä ja on vain säännöllisesti HTML-sivun.
Peittämistä tekniikka pystyy erottamaan ihmisen ja hämähäkki koska se tietää hämähäkkejä IP-osoitteen, IP-osoitetta on sama, joten kun IP-osoite vierailee sivustolla, joka käyttää peittämistä kirjoitus vertaa IP-osoitteen kanssa IP-osoitteet luetteloonsa hakukoneen IP: n, jos on ottelu, skripti tietää, että se on hakukoneen vierailevat ja lähettää paljain luut HTML-sivun setup vain korkea rankingissa. On olemassa kahdenlaisia peittämistä. Ensimmäinen on nimeltään "User Agent peittäminen" ja toinen on nimeltään "IP-pohjaisten peittäminen".
IP-pohjainen peittämistä on paras menetelmä IP-osoitteet ovat erittäin vaikea väärentää, joten kilpailu ei voi teeskennellä olevansa tahansa hakukoneet, jotta varastaa koodia. User Agent peittäminen on samanlainen kuin IP peittämistä, että peittämistä käsikirjoitus vertaa User Agent merkkijono joka lähetetään, kun sivua pyydetään kanssa on luettelo hakukoneen nimet (user agent = nimi) ja sitten palvelee oikealle sivulle. Ongelma User Agent peittäminen on, että agentti nimiä voidaan helposti väärentää.
Hakukoneet voivat helposti laatia uusi Anti Spam menetelmä voittamaan cloakers, kaikki ne tarvitsee vain keksitty nimi ja teeskennellä ne ovat normaali ihminen Internet Explorer tai Netscape, peittämistä ohjelmisto vie hakukoneiden robotit ei - optimoitu sivu ja siten hakukoneen rankingissa suffer.To Yhteenvetona, hakukone peittämistä ei ole yhtä tehokas kuin se oli ennen, tämä on koska hakukoneet ovat yhä tietoinen eri peittämistä tekniikoita käytetään BE ylläpitäjät ja ne vähitellen käyttöön kehittyneempiä tekniikkaa n