当前位置: 首页 > news >正文

分享一个网站能用的接广告的平台

分享一个网站能用的,接广告的平台,百度推广太原网站建设,网站分站系Scrapy 和 scrapy-redis的区别 Scrapy 是一个通用的爬虫框架,但是不支持分布式,Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而提供了一些以redis为基础的组件(仅有组件)。 pip install scrapy-redis Scrapy-redis提供了下面四种组件&a…

Scrapy 和 scrapy-redis的区别

Scrapy 是一个通用的爬虫框架,但是不支持分布式,Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而提供了一些以redis为基础的组件(仅有组件)。

pip install scrapy-redis

Scrapy-redis提供了下面四种组件(components):(四种组件意味着这四个模块都要做相应的修改)

  • Scheduler
  • Duplication Filter
  • Item Pipeline
  • Base Spider

scrapy-redis架构

如上图所⽰示,scrapy-redis在scrapy的架构上增加了redis,基于redis的特性拓展了如下组件:

Scheduler

Scrapy改造了python本来的collection.deque(双向队列)形成了自己的Scrapy queue(https://github.com/scrapy/queuelib/blob/master/queuelib/queue.py)),但是Scrapy多个spider不能共享待爬取队列Scrapy queue, 即Scrapy本身不支持爬虫分布式,scrapy-redis 的解决是把这个Scrapy queue换成redis数据库(也是指redis队列),从同一个redis-server存放要爬取的request,便能让多个spider去同一个数据库里读取。

Scrapy中跟“待爬队列”直接相关的就是调度器Scheduler,它负责对新的request进行入列操作(加入Scrapy queue),取出下一个要爬取的request(从Scrapy queue中取出)等操作。它把待爬队列按照优先级建立了一个字典结构,比如:

    {优先级0 : 队列0优先级1 : 队列1优先级2 : 队列2}

然后根据request中的优先级,来决定该入哪个队列,出列时则按优先级较小的优先出列。为了管理这个比较高级的队列字典,Scheduler需要提供一系列的方法。但是原来的Scheduler已经无法使用,所以使用Scrapy-redis的scheduler组件。

Duplication Filter

Scrapy中用集合实现这个request去重功能,Scrapy中把已经发送的request指纹放入到一个集合中,把下一个request的指纹拿到集合中比对,如果该指纹存在于集合中,说明这个request发送过了,如果没有则继续操作。这个核心的判重功能是这样实现的:

    def request_seen(self, request):# 把请求转化为指纹  fp = self.request_fingerprint(request)# 这就是判重的核心操作  ,self.fingerprints就是指纹集合if fp in self.fingerprints:return True  #直接返回self.fingerprints.add(fp) #如果不在,就添加进去指纹集合if self.file:self.file.write(fp + os.linesep)

在scrapy-redis中去重是由Duplication Filter组件来实现的,它通过redis的set 不重复的特性,巧妙的实现了Duplication Filter去重。scrapy-redis调度器从引擎接受request,将request的指纹存⼊redis的set检查是否重复,并将不重复的request push写⼊redis的 request queue。

引擎请求request(Spider发出的)时,调度器从redis的request queue队列⾥里根据优先级pop 出⼀个request 返回给引擎,引擎将此request发给spider处理。

Item Pipeline

引擎将(Spider返回的)爬取到的Item给Item Pipeline,scrapy-redis 的Item Pipeline将爬取到的 Item 存⼊redis的 items queue。

修改过Item Pipeline可以很方便的根据 key 从 items queue 提取item,从⽽实现 items processes集群。

Base Spider

不在使用scrapy原有的Spider类,重写的RedisSpider继承了Spider和RedisMixin这两个类,RedisMixin是用来从redis读取url的类。

当我们生成一个Spider继承RedisSpider时,调用setup_redis函数,这个函数会去连接redis数据库,然后会设置signals(信号):

  • 一个是当spider空闲时候的signal,会调用spider_idle函数,这个函数调用schedule_next_request函数,保证spider是一直活着的状态,并且抛出DontCloseSpider异常。

  • 一个是当抓到一个item时的signal,会调用item_scraped函数,这个函数会调用schedule_next_request函数,获取下一个request。

http://www.shuangfujiaoyu.com/news/50515.html

相关文章:

  • 网站换服务器要怎么做个人免费开发app
  • 移动微网站sem是什么分析方法
  • 公司注册地址费用杭州seo运营
  • 网络招商平台网站怎么做北京seo排名外包
  • 自己做网站赚钱吗郑州网站制作选择乐云seo
  • 中山自助建站系统不死鸟分享友情链接
  • 网站开发建设与维护湖南网站seo地址
  • wp做的网站打开域名会跳转到其他网站安徽网络关键词优化
  • 模板网站建设教程视频教程广告营销推广方案
  • 长治市郊区住房建设局网站seo综合查询是什么意思
  • 云酒店网站建设博客seo优化技术
  • 台州哪里做网站赵阳竞价培训
  • 抖音引流推广免费软件appwin10优化大师好用吗
  • 专业邯郸做网站应用商店aso优化
  • 成全视频免费观看在线看动画优帮云排名优化
  • 学建网站 必须学那些知识怎么搭建自己的网站
  • 十大购物网站国家卫健委:不再发布每日疫情信息
  • 做的网站放在阿里云谷歌搜索引擎免费入口
  • ruhe用dw做网站潍坊网站外包
  • 广西南宁网站制作线上推广渠道有哪些方式
  • 简网app工场官网注册seo整站优化服务
  • 可以做微商的网站网络建站优化科技
  • 网站搭建的人济南网站推广
  • 济南建设厅官方网站今日新闻7月1日
  • 网站建设的基本条件硬件优化大师下载
  • 双十一电商网络营销是什么专业seo排名优化费用
  • 科技公司网站网页衡阳百度推广公司
  • 深圳龙华网站建设谷歌seo一个月费用需要2万吗
  • 设计创意网站推荐百度推广怎么做的
  • cms网站模板 数据采集关键词搜索排名查询