VW-Crawler Java 爬虫框架开源项目

我要开发同款
匿名用户2018年07月30日
15阅读
开发技术Java
所属分类应用工具、网络爬虫
授权协议MIT

作品详情

VW-Crawler背景

自己一直对爬虫比较感兴趣,大学的毕业论文也是一个爬虫项目(爬教务处信息,然后做了个Android版教务管理系统,还获得了优秀毕业设计的称号),自那以后遇到自己感兴趣的网站就会去抓一下。前段时间工作上需要一些JD信息,我就从网上找了个开源的爬虫框架WebMagic,使用简单,易配置,功能也很强大,当然了也有些网站的数据不适合使用。前前后后写了不下十几个,慢慢的就想是不是可以把这些爬虫代码再抽象出来,做出一个简易的爬虫框架呢?于是就尝试去看WebMagic的源码,后来又发现了一个源码比较容易解读的爬虫框架XXL-CRAWLER,简单的分析了源码之后,开发自己一套爬虫框架的欲望更加强烈,于是在2017年底的时候就开始了开发,中间断断续续得停了写,写了停。直到最近8月底的时候才算出了一个版本,然后顺势把它放到了Maven公服仓库上。一个人的力量很薄弱,要想完善这个爬虫的健壮性、可用性和易扩展性还需要大家的力量!

特点

 语言:Java开发,框架比较简单,多处使用的是接口编程,是学习Java不错的例子

 难度:及其简单,配置一下,写个解析逻辑,整理下保存方法,就OK了

 轻量:使用Jsoup做默认的下载器,依赖性较低

 线程:可自主**设置线程**数抓取,提高抓取效率

 重试:支持失败重试,次数可以自定义

 代理:支持配置**代理池**,默认随机使用代理IP,也可自定义算法获取

 去重:**双重去重**,默认对URL去重,也可以定义第二层去重逻辑

 控制:可**自主控制**是否需要解析页面,减少资源的使用

 精准:通过设置URL的正则来**精准**的解析每一个URL

 扩展:几乎每一个环节都可以自定义

使用使用Maven

在https://search.maven.org上使用最新的版本在pom中引入

<dependency>    <groupId>com.github.vector4wang</groupId>    <artifactId>vw-crawler</artifactId>    <version>${last.version}</version></dependency>离线使用

可以在项目主页的[release](https://github.com/vector4wang/vw-crawler/releases)下载最新版本jar,然后导入自己的项目中。

步骤

 配置参数

 抽象正则

 解析页面

 保存数据

各环节均支持自定义

示例抓取CSDN某用户的博客内容

设置爬虫的基本配置,如User-Agent、起始地址、目标页面的url正则表达式、线程数和超时时间等

new VWCrawler.Builder()        // 配置参数        .setHeader("User-Agent",                "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36") // 设置请求头        .setUrl("https://blog.csdn.net/qqhjqs") // 设置爬虫起始地址        .setThreadCount(10) // 设置几个线程抓取数据        .setTimeOut(5000) // 设置超时时间        // 抽象正则        .setTargetUrlRex("https://blog.csdn.net/qqhjqs/article/details/[0-9]+") // 设置目标页面url的正则表达式        // 解析页面        .setPageParser(new CrawlerService<Blog>() {            /**             * 有的url可能在某个场景下不需要可在此处理             * 默认返回false,可以不做处理             * @param url 即将要抓取的url             * @return             */            @Override            public boolean isExist(String url) {                if ("https://blog.csdn.net/qqhjqs/article/details/79101846".equals(url)) {                    return true;                }                return false;            }            /**             * 有的页面有WAF,可以再真正解析前,做个判断,遇到特殊标志的直接可以跳过             * 默认返回true,可以不做处理             * @param document 即将要解析的document             * @return             */            @Override            public boolean isContinue(Document document) {                if ("最近和未来要做的事 - CSDN博客".equals(document.title())) {                    System.out.println("模拟遇到WAF此页面不做解析");                    return false;                }                return true;            }            /**             * 目标页面的doc对象,还有通过注解处理后的对象             * @param doc 文档内容             * @param pageObj 封装的对象             */            @Override            public void parsePage(Document doc, Blog pageObj) {                // 可进行二次处理                pageObj.setReadNum(pageObj.getReadNum().replace("阅读数:", ""));            }            // 保存数据            /**             * 可以做保存对象的处理             * @param pageObj 页面对象             */            @Override            public void save(Blog pageObj) {                System.out.println("save blog summery: " + pageObj.toString());            }        }) // 自定义解析service        .build().start(); // 启动

配置页面数据对象的注解

@CssSelector(selector = "#mainBox > main > div.blog-content-box > div.article-title-box > h1", resultType = SelectType.TEXT)private String title;@CssSelector(selector = "#mainBox > main > div.blog-content-box > div.article-info-box > div > span.time", dateFormat = "yyyy年MM月dd日 HH
查看全文
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论