蜂集采集如何进行全站采集
今天给大家带来一个超级简单的抓取全站的教程,文末有小福利哦~
话不多说,我们开始吧!
第一步:设置列表规则
想要抓取全站,就需要一个能够不断获取站内链接的列表页规则。一般来说,一个好的网站是利于蜘蛛抓取的,通过一个入口就可以找到站点内所有的文章链接,因此列表页的规则就是匹配文章地址。
列表规则默认会获取当前页面上所有的链接,我们需要做的就是通过一系列的规则把需要的网址提取出来,不需要的网址剔除掉。
以lz13为例,它所有的文章链接都以.html结尾,所以我们的网址包含规则里写上.html,为了不让蜘蛛乱爬,我们限制蜘蛛在这个站点内爬行,因此网址还需要包含lz13.cn,规则就是.html&&lz13.cn。这里的&&表示且,意思就是一个链接需要同时满足这两个条件才会被匹配到。

抓取全站的重点就在于终止列表获取这个选项,不勾选表示所有的地址都会使用这个规则,这样就能源源不断获取新的链接,达到抓取全站的目的。
比如我们使用首页测试一下抓取,可以看到下面抓取了很多链接

我们再用内部文章页面测试抓取,可以看到下面依然有新的链接

第二步:设置正文规则
如果你懂XPath或者正则,那么写一个抓取正文的规则是一件很容易的事情。这里以XPath为例。
如果你会XPath,那么可以看到下面的正文实际上是被PostContent这个class包住,那么XPath长这样 //*[@class=”PostContent”]。如果不会,可以直接从浏览器复制xpath,长得可能不太一样。具体方法可以参考:如何利用浏览器复制XPath

其他的字段同理可以这样获取,设置好抓取规则,添加任务,运行起来就可以抓取全站了!
小福利
为了让大家更好地理解如何做全站采集,这里把上面做的采集规则分享出来,大家可以去网盘下载。
地址 https://pan.baidu.com/s/1TjgMPCXGvJfC9aQqRZNSNw
密码 r7rg
如果链接过期,可以加群175991304,找群主获取即可!
微信赞赏
支付宝赞赏