1. 首页
  2. 数据库
  3. 其它
  4. Scrapy框架的使用之Scrapy通用爬虫

Scrapy框架的使用之Scrapy通用爬虫

上传者: 2021-02-01 00:50:13上传 PDF文件 1.28MB 热度 30次
通过Scrapy,我们可以轻松地完成一个站点爬虫的编写。但如果抓取的站点量非常大,比如爬取各大媒体的新闻信息,多个Spider则可能包含很多重复代码。如果我们将各个站点的Spider的公共部分保留下来,不同的部分提取出来作为单独的配置,如爬取规则、页面解析方式等抽离出来做成一个配置文件,那么我们在新增一个爬虫的时候,只需要实现这些网站的爬取规则和提取规则即可。本节我们就来探究一下Scrapy通用爬虫的实现方法。在实现通用爬虫之前,我们需要先了解一下CrawlSpider,其官方文档链接为:http://scrapy.readthedocs.
用户评论