Scrapy框架中的Pipeline使用详解

 更新时间:2023年10月23日 08:57:31   作者:喵叔哟  
这篇文章主要介绍了Scrapy框架中的Pipeline使用详解,Scrapy 中的 Pipeline 为我们提供了处理数据的功能,在实际开发中我们经常使用它来清洗/验证数据、去重和数据保存,需要的朋友可以参考下

前言

Scrapy 中的 Pipeline 为我们提供了处理数据的功能,在实际开发中我们经常使用它来清洗/验证数据、去重和数据保存。在一个项目中会存在多种 Pipeline ,每个 Pipeline 都是一个 class ,其中包含了一些处理的 Item 的方法。 Item 会在这些 Pipeline 中按顺序依次传递,如果其中一个 Pipeline 丢弃了 Item ,那么后面未执行到的 Pipeline 将不会收到这个 Item 。

自定义 Pipeline

自定义 Pipeline 其实很简单,只需要实现指定的方法即可。

process_item (self,item,spider)

解释:

该方法必须实现,处理数据的工作都在这个方法中进行,方法返回 dict 、Item 、 Twisted Deferred 或者是 DropItem 异常。

参数:

  • item : 被爬取的 Item ;
  • spider : 爬取 Item 时所使用的 Spider 。

Tip : 如果在 process_item 方法中丢弃了 Item ,那么这个 Item 将不会向后续 Pipeline 传递这个 Item 。

open_spider(self,spider)

解释:

爬虫开始运行时,将会在这个方法中执行一些初始化工作,例如打开数据库、打开文件等。

参数:

  • spider : 当前正在使用的
Spider close_spider(self,spider)

解释:

爬虫关闭时,将会在这个方法中执行一些后续工作,例如关闭数据库、关闭文件等。

参数:

  • spider : 当前正在使用的 Spider
from_crawl(self,crawler)

解释:

方法为类方法,通过初始化 crawler 对象返回 Pipeline 实例。我们可以通过 crawler 返回所有 Scrapy 核心组件。

特殊的 Pipeline

在一些项目中我们不仅要爬取网页的数据,还需要爬取文件或图片,并保存在本地。这时我们就需要用到 Scrapy 中特殊的 Pipeline :FilesPipeline 和 ImagesPipeline ,它们具有一些相同的方法和结构与,我们称这种 Pipeline 为 MediaPipeline 。FilesPipeline 和 ImagesPipeline 都包含如下特性:

  • 避免重复下载数据
  • 指定存储位置

ImagesPipeline 又包含如下特性:

  • 图片转换为 JPG 格式或者 RGB 格式
  • 生成缩略图
  • 限制图片下载的最大/最小宽高

Tip:Scrapy Pipeline 避免重复下载的方法是将要下载的文件的 URL 放入一个队列中,并且和 Response 关联,从而避免了重复下载。

FilesPipeline

FilesPipeline 下载文件的工作流程非常简单,一共有四个步骤:

  1. 爬虫把获取到的 Item 和希望下载的文件的 URL 保存到 file_urls 中;
  2. 爬虫返回的 Item 进入到 Pipeline 内部;
  3. Item 按照顺序传递到 FilesPipeline 时,file_urls 中的 URL 会被内置的调度器和下载器下载。在这个时候 Item 是被锁定的,直到需要下载的文件下载完成或者报错,Item 才解除锁定;
  4. 下载完成后,结果将被保存在 files 中,files 是一个列表,每条数据是 dict 类型。

ImagesPipeline

ImagesPipeline 是继承自 FilesPipeline ,也就是说它的大部分步骤和 FilesPipeline 一样。 唯一不同的是 ImagesPipeline 将需要下载的图片 URL 保存到了 image_urls 中,下载完成的结果保存到 images 中。

Tip:Pipeline 中不仅仅包含了这两个特殊的 Pipeline ,因为 FilesPipeline 和 ImagesPipeline 是比较常用的,因此我在这里进行了讲解。更多的内置 Pipeline 大家可以去 Scrapy 官网查看具体的文档。

我们在编写完 Pipeline 后需要在 settings.py 文件中进行注册,将我们编写的 Pipeline 注入到 Scrapy 中。

ITEM_PIPELINS= {
  '自定义Pipeline 路径':'优先级'
}

总结

本篇文章主要讲解了 Pipeline 的理论知识,虽然很短,但是这些知识是 Pipeline 的核心知识。下一节我将通过代码的形式来展现 Pipeline 的使用。

到此这篇关于Scrapy框架中的Pipeline使用详解的文章就介绍到这了,更多相关Pipeline使用内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python使用Dijkstra算法实现求解图中最短路径距离问题详解

    Python使用Dijkstra算法实现求解图中最短路径距离问题详解

    这篇文章主要介绍了Python使用Dijkstra算法实现求解图中最短路径距离问题,简单描述了Dijkstra算法的原理并结合具体实例形式分析了Python使用Dijkstra算法实现求解图中最短路径距离的相关步骤与操作技巧,需要的朋友可以参考下
    2018-05-05
  • python中浮点数比较判断!为什么不能用==(推荐)

    python中浮点数比较判断!为什么不能用==(推荐)

    这篇文章主要介绍了python中浮点数比较判断!为什么不能用==,本文给大家分享问题解决方法,需要的朋友可以参考下
    2023-09-09
  • 在Django的上下文中设置变量的方法

    在Django的上下文中设置变量的方法

    这篇文章主要介绍了在Django的上下文中设置变量的方法,Django是重多Python高人气框架中最为著名的一个,需要的朋友可以参考下
    2015-07-07
  • Python实现强制复制粘贴的示例详解

    Python实现强制复制粘贴的示例详解

    下个文档还要马内?还好我会Python,本文就来教大家来一手如何利用Python实现强制复制粘贴。文中的示例代码讲解详细,感兴趣的小伙伴可以了解一下
    2022-12-12
  • 详解numpy矩阵的创建与数据类型

    详解numpy矩阵的创建与数据类型

    这篇文章主要介绍了详解numpy矩阵的创建与数据类型,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-10-10
  • 浅谈PyTorch的可重复性问题(如何使实验结果可复现)

    浅谈PyTorch的可重复性问题(如何使实验结果可复现)

    今天小编就为大家分享一篇浅谈PyTorch的可重复性问题(如何使实验结果可复现),具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-02-02
  • 零基础写python爬虫之爬虫编写全记录

    零基础写python爬虫之爬虫编写全记录

    前面九篇文章从基础到编写都做了详细的介绍了,第十篇么讲究个十全十美,那么我们就来详细记录一下一个爬虫程序如何一步步编写出来的,各位看官可要看仔细了
    2014-11-11
  • Python yield 小结和实例

    Python yield 小结和实例

    yield的作用就是把一个函数变成一个 generator,带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator(不知道什么是generator要先去理解一下Python的generator的了)
    2014-04-04
  • Python 统计Jira的bug 并发送邮件功能

    Python 统计Jira的bug 并发送邮件功能

    这篇文章主要介绍了Python 统计Jira的bug 并发送邮件,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-01-01
  • python线程如何强制暂停、恢复、停止(非标志位)

    python线程如何强制暂停、恢复、停止(非标志位)

    这篇文章主要介绍了python线程如何强制暂停、恢复、停止(非标志位),具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-02-02

最新评论