python使用Scrapy库进行数据提取和处理的方法详解

 更新时间:2023年09月08日 08:51:21   作者:小小张说故事  
在我们的初级教程中,我们介绍了如何使用Scrapy创建和运行一个简单的爬虫,在这篇文章中,我们将深入了解Scrapy的强大功能,学习如何使用Scrapy提取和处理数据

一、数据提取:Selectors和Item

在Scrapy中,提取数据主要通过Selectors来完成。Selectors基于XPath或CSS表达式的查询语言来选取HTML文档中的元素。你可以在你的爬虫中使用response对象的xpathcss方法来创建一个Selector对象。

例如,我们可以修改我们的QuotesSpider爬虫,使用Selectors来提取每个引用的文本和作者:

import scrapy
class QuotesSpider(scrapy.Spider):
    name = "quotes"
    start_urls = [
        'http://quotes.toscrape.com/page/1/',
    ]
    def parse(self, response):
        for quote in response.css('div.quote'):
            text = quote.css('span.text::text').get()
            author = quote.css('span small::text').get()
            print(f'Text: {text}, Author: {author}')

此外,Scrapy还提供了Item类,可以定义你想要收集的数据结构。Item类非常适合收集结构化数据,如我们从quotes.toscrape.com中获取的引用:

import scrapy
class QuoteItem(scrapy.Item):
    text = scrapy.Field()
    author = scrapy.Field()

然后我们可以修改QuotesSpider爬虫,使其生成和收集QuoteItem对象:

class QuotesSpider(scrapy.Spider):
    name = "quotes"
    start_urls = [
        'http://quotes.toscrape.com/page/1/',
    ]
    def parse(self, response):
        for quote in response.css('div.quote'):
            item = QuoteItem()
            item['text'] = quote.css('span.text::text').get()
            item['author'] = quote.css('span small::text').get()
            yield item

二、数据处理:Pipelines

Scrapy使用数据管道(pipelines)来处理爬虫从网页中抓取的Item。当爬虫生成一个Item,它将被发送到Item Pipeline进行处理。

Item Pipeline是一些按照执行顺序排列的类,每个类都是一个数据处理单元。每个Item Pipeline组件都是一个Python类,必须实现一个process_item方法。这个方法必须返回一个Item对象,或者抛出DropItem异常,被丢弃的item将不会被之后的pipeline组件所处理。

例如,我们可以添加一个Pipeline,将收集的引用保存到JSON文件中:

import json
class JsonWriterPipeline(object):
    def open_spider(self, spider):
        self.file = open('quotes.jl', 'w')
    def close_spider(self, spider):
        self.file.close()
    def process_item(self, item, spider):
        line = json.dumps(dict(item)) + "\n"
        self.file.write(line)
        return item

然后你需要在项目的设置文件(settings.py)中启用你的Pipeline:

ITEM_PIPELINES = {
   'tutorial.pipelines.JsonWriterPipeline': 1,
}

在这篇文章中,我们更深入地探讨了Scrapy的功能,包括如何使用Selectors和Item提取数据,如何使用Pipelines处理数据。在下一篇文章中,我们将学习如何使用Scrapy处理更复杂的情况,如登录、cookies、以及如何避免爬虫被网站识别和封锁等问题。

到此这篇关于python使用Scrapy库进行数据提取和处理的方法详解的文章就介绍到这了,更多相关python Scrapy数据提取和处理内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python 列表删除所有指定元素的方法

    python 列表删除所有指定元素的方法

    下面小编就为大家分享一篇python 列表删除所有指定元素的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-04-04
  • Python+Selenium实现在Geoserver批量发布Mongo矢量数据

    Python+Selenium实现在Geoserver批量发布Mongo矢量数据

    这篇文章主要为大家详细介绍了如何利用Python+Selenium实现在 Geoserver批量发布来自Mongo中的矢量数据,文中的示例代码讲解详细,感兴趣的小伙伴可以了解一下
    2022-07-07
  • PyCharm 解决找不到新打开项目的窗口问题

    PyCharm 解决找不到新打开项目的窗口问题

    这篇文章主要介绍了PyCharm 解决找不到新打开项目的窗口问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-01-01
  • 基于python的Paxos算法实现

    基于python的Paxos算法实现

    这篇文章主要介绍了基于python的Paxos算法实现,理解一个算法最快,最深刻的做法,我觉着可能是自己手动实现,虽然项目中不用自己实现,有已经封装好的算法库,供我们调用,我觉着还是有必要自己亲自实践一下,需要的朋友可以参考下
    2019-07-07
  • jupyter-lab设置自启动及远程连接开发环境

    jupyter-lab设置自启动及远程连接开发环境

    本文主要介绍了jupyter-lab设置自启动及远程连接开发环境,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-02-02
  • pytest解读fixtures中yield与addfinalizer区别

    pytest解读fixtures中yield与addfinalizer区别

    这篇文章主要为大家介绍了pytest官方解读fixtures中yield与addfinalizer区别,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-06-06
  • Django配置Mysql数据库连接的实现

    Django配置Mysql数据库连接的实现

    本文主要介绍了Django配置Mysql数据库连接的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-03-03
  • Python网络编程之xmlrpc模块

    Python网络编程之xmlrpc模块

    这篇文章介绍了Python网络编程之xmlrpc模块,文中通过示例代码介绍的非常详细。对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-05-05
  • tensorflow获取预训练模型某层参数并赋值到当前网络指定层方式

    tensorflow获取预训练模型某层参数并赋值到当前网络指定层方式

    今天小编就为大家分享一篇tensorflow获取预训练模型某层参数并赋值到当前网络指定层方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-01-01
  • python程序主动退出进程的五种方式

    python程序主动退出进程的五种方式

    对于如何结束一个Python程序或者用Python操作去结束一个进程等,Python本身给出了好几种方法,而这些方式也存在着一些区别,对相关的几种方法看了并实践了下,同时也记录下,需要的朋友可以参考下
    2024-02-02

最新评论