« | October 2025 | » | 日 | 一 | 二 | 三 | 四 | 五 | 六 | | | | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | | |
| 公告 |
暂无公告... |
Blog信息 |
blog名称:SEO Blog 日志总数:2 评论数量:2 留言数量:-5 访问次数:33775 建立时间:2006年3月1日 |

| |
隐形页面(Cloaked Page)工作原理 电脑与网络
樂思蜀 发表于 2006/3/1 23:19:43 |
简单的说,所谓的Cloaked Page技术是指网站对不同的访问者选择性的返回不同的页面内容。 你在你的服务器上有一个Cloaked网页。这个“网页”实际是一个读取访问者IP地址的服务器脚本,它检查访问者IP地址是否是众所周知的搜索引擎地址(比如Google、Baidu、Yahoo等)。如果发现访问者IP地址是某一个搜索引擎地址,则标识访问者是“搜索引擎spider”,否则认为访问者是真正的“人类用户”。 服务器脚本能够选择性的基于访问者标识返回不同的页面内容,如果访问者是真正的“人类用户”,可以返回这个网站的首页或者没有高度优化的网页。如果访问者是“搜索引擎spider”,则返回高度优化的网页。 大家可以看到Cloaked网页的要点是:同一个网页地址(URL),搜索引擎得到了高度优化的网页内容,而真正用户看到不同的内容! 上面用IP地址作为标识访问者的手段,请求网页的客户端软件(一般是浏览器)发送过来的user_agent也可以用来标识访问者。 我们已经讨论过了cloaking机制,下面要谈论风险管理问题。cloaking是高风险的,搜索引擎已经公开声明反对cloaking,如果被逮住的话,可能会被惩罚。 为了最小化风险,你应当采取以下策略: 1、网页最好放在另外一个网站,不同于你主要网站。 2、维护一个准确的最新的搜索引擎IP地址列表。 3、指令搜索引擎不要缓存你cloaked网页(也就是搜索引擎不维护你cloaked网页的网页快照)。 下面再分别解释一下每个策略: 1、你应当使用一个新域名和新网站服务器使用你的Cloaking机制,这样你遭受惩罚时,你的主域名就可以逃出过一劫。记住,域名的Whois信息最好不同(点此进入Whois查询)。 2、搜索引擎的IP地址偶尔会发生变化,最好能够维护一个最新的列表,以使你的Cloaking页面正常工作。 3、搜索引擎提供的网页快照自然会使你的把戏暴露在哪些访问你网站的人眼中,如果给你的竞争对手或者同行看到更加不妙了。在Cloaking网页中确保使用ROBOTS NOARCHIVE meta tag。如果某个搜索引擎不理会你在html使用的这个指令,不要把它作为优化对象。使用方法请参考《Robots.txt和Robots META标签》一文的“二、Robots META标签”。 最后,最重要的问题:“你应不应该使用Cloaked”? 这个与伦理道德相关的问题作为练习题留给大家。 很多人认为cloaking是卑鄙和不道德的,他们声称你通过欺骗搜索引擎来达到不配得到的排名目的。另一方则辩解cloaked网页试图对搜索引擎提供更多的相关结果…… 当然也有实际问题要考虑:创建和维护一个cloaking系统需要花费多少时间?与系统带来的流量相比,你所花费的钱(购买一个cloaking软件,登记一个新的cloaking域名和hosting服务器)或者时间(你自己编写脚本)是否值的? 说明:《11种可能被搜索引擎视为作弊的情况》一文中有说明,Cloaking属桥页类作弊,有很高的风险性。发布本文,目标不在要大家应用此种方法去作弊,而是作为介绍,揭露此种方法作弊的真相。 SEO论坛欢迎搜索引擎优化爱好者来交流讨论。 |
|
回复:隐形页面(Cloaked Page)工作原理 电脑与网络
unixpub(游客)发表评论于2010/3/3 11:57:57 |
如果一个网站被别人用cloaking技术挂了乱七八糟的东西,怎样解决? |
|
» 1 »
|