Python Scrapy框架:通用爬虫之CrawlSpider用法简单示例

 更新时间:2020年04月11日 13:23:48   作者:hankleo  
这篇文章主要介绍了Python Scrapy框架:通用爬虫之CrawlSpider用法,结合实例形式分析了Scrapy框架中CrawlSpider的基本使用方法,需要的朋友可以参考下

本文实例讲述了Python Scrapy框架:通用爬虫之CrawlSpider用法。分享给大家供大家参考,具体如下:

步骤01: 创建爬虫项目

scrapy startproject quotes

步骤02: 创建爬虫模版

scrapy genspider -t quotes quotes.toscrape.com

步骤03: 配置爬虫文件quotes.py

import scrapy
from scrapy.spiders import CrawlSpider, Rule
from scrapy.linkextractors import LinkExtractor

class Quotes(CrawlSpider):
 # 爬虫名称
  name = "get_quotes"
  allow_domain = ['quotes.toscrape.com']
  start_urls = ['http://quotes.toscrape.com/']

# 设定规则
  rules = (
    # 对于quotes内容页URL,调用parse_quotes处理,
    # 并以此规则跟进获取的链接
    Rule(LinkExtractor(allow=r'/page/\d+'), callback='parse_quotes', follow=True),
    # 对于author内容页URL,调用parse_author处理,提取数据
    Rule(LinkExtractor(allow=r'/author/\w+'), callback='parse_author')
  )

# 提取内容页数据方法
  def parse_quotes(self, response):
    for quote in response.css(".quote"):
      yield {'content': quote.css('.text::text').extract_first(),
          'author': quote.css('.author::text').extract_first(),
          'tags': quote.css('.tag::text').extract()
          }
 # 获取作者数据方法

  def parse_author(self, response):
    name = response.css('.author-title::text').extract_first()
    author_born_date = response.css('.author-born-date::text').extract_first()
    author_bron_location = response.css('.author-born-location::text').extract_first()
    author_description = response.css('.author-description::text').extract_first()

    return ({'name': name,
         'author_bron_date': author_born_date,
         'author_bron_location': author_bron_location,
         'author_description': author_description
         })

步骤04: 运行爬虫

scrapy crawl quotes

更多相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总

希望本文所述对大家基于Scrapy框架的Python程序设计有所帮助。

相关文章

  • Python获取网页数据的五种方法

    Python获取网页数据的五种方法

    在 Python 中,爬虫用于自动化获取网页数据,你可以使用多种方法来抓取网页内容,具体使用哪种方法取决于网页的结构、内容类型以及你所需的精确度,以下是常见的 5 种获取网页数据的方式,需要的朋友可以参考下
    2025-01-01
  • python如何通过闭包实现计算器的功能

    python如何通过闭包实现计算器的功能

    这篇文章主要介绍了python如何通过闭包实现计算器的功能,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-02-02
  • Python GUI程序类写法与Label介绍

    Python GUI程序类写法与Label介绍

    这篇文章主要介绍了Python GUI程序类写法与Label介绍,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习吧
    2022-09-09
  • Tensorflow 自定义loss的情况下初始化部分变量方式

    Tensorflow 自定义loss的情况下初始化部分变量方式

    今天小编就为大家分享一篇Tensorflow 自定义loss的情况下初始化部分变量方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-01-01
  • Python拆分Excel工作簿或工作表为多个文件的高效方法

    Python拆分Excel工作簿或工作表为多个文件的高效方法

    在日常工作中,我们经常需要处理包含大量数据的Excel文件,为了提高效率和准确性,我们可以将一个Excel文件或其中某一个工作表按需求拆分为多个文件,本文将提供以下两个示例介绍如何通过Python高效地拆分Excel工作簿或工作表,需要的朋友可以参考下
    2024-12-12
  • 在Matplotlib图中插入LaTex公式实例

    在Matplotlib图中插入LaTex公式实例

    这篇文章主要介绍了在Matplotlib图中插入LaTex公式实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-04-04
  • 解决jupyter notebook显示不全出现框框或者乱码问题

    解决jupyter notebook显示不全出现框框或者乱码问题

    这篇文章主要介绍了解决jupyter notebook显示不全出现框框或者乱码问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-04-04
  • numpy中生成随机数的几种常用函数(小结)

    numpy中生成随机数的几种常用函数(小结)

    这篇文章主要介绍了numpy中生成随机数的几种常用函数,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-08-08
  • 详解Python中可散列的数据类型

    详解Python中可散列的数据类型

    在Python中,字典(dict)是一种常用的数据类型,其使用键(key)和值(value)来存储和访问数据,在字典中,键必须是可哈希(hashable)的类型,否则会导致运行时错误,因此,在Python中,有一些可散列的数据类型可以作为字典的键
    2023-06-06
  • Python标准库calendar的使用方法

    Python标准库calendar的使用方法

    本文主要介绍了Python标准库calendar的使用方法,calendar模块主要由Calendar类与一些模块方法构成,Calendar类又衍生了一些子孙类来帮助我们实现一些特殊的功能,感兴趣的可以了解一下
    2021-11-11

最新评论