分布式scrapy爬虫

我要开发同款
宋东东2024年05月17日
159阅读

作品详情

1.因为爬取的网址量比较大,所以普通的单个爬虫无法支持项目,所以选择基于scrapy-redis的分布式爬虫2.爬虫的爬取结果通过kafka直接保存在ES中3,爬虫的结果可以通过kibana直接查看
查看全文
声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论