突破搜索引擎robots.txt限制:让搜索引擎给你的网站做外链
我们知道搜索引擎的产品线很长,多个产品之间总不可能完全完美地配合,因此在robots.txt的限制收录那里就产生了一个可以被利用的漏洞。
原理分析(以搜狗为例)
搜狗针对各个搜索引擎,对搜索结果页面进行了屏蔽处理。其中“/sogou?”、“/web?”等路径均是结果页面的路径,那么,会不会有这样一种情况?搜狗存在其他的搜索结果页面路径,但是在robots.txt中却没有申明屏蔽?为了验证这一猜想,我们到百度中搜索搜狗。
我们可以看到其中“/sie?”、“/sgo?”均为搜狗搜索结果页面的路径,但是在robots.txt文件中却没有被申明屏蔽!即是说这样路径的页面时允许被搜索引擎收录,如果这样的页面的搜索结果全部都是自己的网站呢?那么就实现了让搜索引擎给自己网站做外链的效果!
那么问题来了?如果让搜索结果全部都是自己的站点呢?很自然地就会想到站内搜索!具体寻找站内搜索参数的方式请自行搜索相关资料,此处直接说明结果:搜狗的站内搜索参数为insite,那么组装成这样一个网址:
http://www.sogou.com/sgo?query=SEO&insite=meeaxu.com
这个网址时可被收录的、这个页面的所有搜索结果均是指定网站的,将类似的网址在互联网上进行传播,蜘蛛爬行到之后最终会入库建立索引,最后达到了我们的目的:让搜索引擎给自己的网站链接。
写在最后
这种方法的时效性不高,很多人都使用之后就会被修复。之所以要将原理清楚地描述出来,是为了描述黑帽方法的发现过程。黑帽并不是简单地做什么站群、群发外链什么的,更多的是利用搜索引擎本身的漏洞来进行优化。本文仅仅是示例了一个非常简单的黑帽方法发现过程,更多大神都非常低调,其发现的方法也并未在互联网上传播。本文仅仅是为了让大家更了解黑帽,并非鼓励大家使用黑帽的方式来进行网站优化,不仅伤害用户也为互联网带来了更多污染。我希望大家更多地去考虑用户体验,去配合搜索引擎,同样能够达到最终目的。
相关文章
- 网站改版优化怎么将搜索引擎优化的影响降到最低?老站总会经历一次改版,以前的模块放到现在都不适用了,为了迎合现在的审美,改版是必须的,但是怎么才能将搜索引擎优化的2015-12-29
- 网站优化对于每一个站长来说都是为用户服务,而其本质上是在围绕搜索引擎的目的在为用户提供其最需要的内容,在这个过程中,站长必须对于搜索引擎和用户之间的关系有一个深2015-12-24
- 在搜索引擎算法不断改变的情况下网站优化该怎么做?我们都知道百度搜索引擎一周都会变好几次,在这种情况系啊,我们该怎么优化网站呢?下面我们来看看详细的分析,需要的朋2015-12-21
- 站长最关心就是搜索引擎排名,那么哪些因素不利于搜索引擎排名呢?本文就给大家带来不利于搜索引擎排名的因素介绍,感兴趣的朋友们可以过来看看2015-12-19
- 在网络飞速发展的今天,医院的网络推广已逐步在网络营销的领域占领了一席之地了,在医疗SEO优化中,医院网站建设之什么样的才最符合搜索引擎优化呢?下面就一起来看看民营2015-12-18
- 对于新老站长来说,要做好SEO,前提是要让你的网站被搜索引擎尤其是百度的收录,发布的新文章和外链在极短的几分钟时间内被搜索引擎索引和收录,这种现象称为秒收,下面小2015-12-15
- 外链为皇的时代是不是已经过去了?从目前的百度搜索引擎优化角度来说,可能外链对网站的效果没有以前的效果出色了,但对于网站来说外链仍是作为外部因素对此网站投票的重要2015-12-06
- 小卖家往往对于引流是比较纠结的,那么如何做好SEO搜索获取自然流量排名?小卖家利用好seo搜索排名的规则,还是能拿到一点流量的。下面就一起来看看淘宝开店实战教程吧2015-12-04
- 搜索引擎的工作的过程非常复杂,而简单的讲搜索引擎的工过程大体可以分成三个阶段,爬行和抓取,预处理,排名,本文给大家介绍全面了解搜索引擎知识有助于做好SEO(新手必看2015-11-02
- 如果你的网站涉及个人隐私或者机密性非公开的网页而需要禁止搜索引擎收录抓取的话,该如何操作呢?本文将教你几种做法来实现屏蔽或禁止搜索引擎收录抓取网站的内容2015-03-07
最新评论