scrapy工作流程原理:
1.由爬虫器确认起始url,构造一个request对象,交给引擎(在spiders里面设置)
2.引擎把request对象交给调度器,是一个队列,相当是一个容器(先进先出,后进后出),排序的功能
3.调度器把排序之后的request对象发送给引擎
4.引擎把request对象交给了下载器
5.下载器拿了request对象发送了网络请求,获取了响应对象response,交给了引擎
6.引擎把响应response交给了爬虫器(在spiders里面的response)
7.爬虫器拿到了response进行解析
--(1)如果直接保存的数据data,返回给引擎之后,那么引擎就交给了管道
--(2)是需要继续发送请求的url,返回给引擎之后,把之前的流程再走一遍
8.管道拿到了由引擎发送过来的数据data,直接进行保存