蜂集采集如何进行全站采集

更新于 2020年12月7日 说明书

今天给大家带来一个超级简单的抓取全站的教程,文末有小福利哦~

话不多说,我们开始吧!

第一步:设置列表规则

想要抓取全站,就需要一个能够不断获取站内链接的列表页规则。一般来说,一个好的网站是利于蜘蛛抓取的,通过一个入口就可以找到站点内所有的文章链接,因此列表页的规则就是匹配文章地址。

列表规则默认会获取当前页面上所有的链接,我们需要做的就是通过一系列的规则把需要的网址提取出来,不需要的网址剔除掉。

以lz13为例,它所有的文章链接都以.html结尾,所以我们的网址包含规则里写上.html,为了不让蜘蛛乱爬,我们限制蜘蛛在这个站点内爬行,因此网址还需要包含lz13.cn,规则就是.html&&lz13.cn。这里的&&表示且,意思就是一个链接需要同时满足这两个条件才会被匹配到。

抓取全站的重点就在于终止列表获取这个选项,不勾选表示所有的地址都会使用这个规则,这样就能源源不断获取新的链接,达到抓取全站的目的。

比如我们使用首页测试一下抓取,可以看到下面抓取了很多链接

我们再用内部文章页面测试抓取,可以看到下面依然有新的链接

第二步:设置正文规则

如果你懂XPath或者正则,那么写一个抓取正文的规则是一件很容易的事情。这里以XPath为例。

如果你会XPath,那么可以看到下面的正文实际上是被PostContent这个class包住,那么XPath长这样 //*[@class=”PostContent”]。如果不会,可以直接从浏览器复制xpath,长得可能不太一样。具体方法可以参考:如何利用浏览器复制XPath

其他的字段同理可以这样获取,设置好抓取规则,添加任务,运行起来就可以抓取全站了!

小福利

为了让大家更好地理解如何做全站采集,这里把上面做的采集规则分享出来,大家可以去网盘下载。

地址 https://pan.baidu.com/s/1TjgMPCXGvJfC9aQqRZNSNw

密码 r7rg

如果链接过期,可以加群175991304,找群主获取即可!

好看 (0) 很好看 (0) 非常好看 (0)
赞赏

微信赞赏支付宝赞赏