Python爬虫框架scrapy实现的文件下载功能示例

 更新时间:2018年08月04日 08:56:04   作者:Charles.L  
这篇文章主要介绍了Python爬虫框架scrapy实现的文件下载功能,结合实例形式分析了scrapy框架进行文件下载的具体操作步骤与相关实现技巧,需要的朋友可以参考下

本文实例讲述了Python爬虫框架scrapy实现的文件下载功能。分享给大家供大家参考,具体如下:

我们在写普通脚本的时候,从一个网站拿到一个文件的下载url,然后下载,直接将数据写入文件或者保存下来,但是这个需要我们自己一点一点的写出来,而且反复利用率并不高,为了不重复造轮子,scrapy提供很流畅的下载文件方式,只需要随便写写便可用了。

mat.py文件

# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractor import LinkExtractor
from weidashang.items import matplotlib
class MatSpider(scrapy.Spider):
  name = "mat"
  allowed_domains = ["matplotlib.org"]
  start_urls = ['https://matplotlib.org/examples']
  def parse(self, response):
       #抓取每个脚本文件的访问页面,拿到后下载
    link = LinkExtractor(restrict_css='div.toctree-wrapper.compound li.toctree-l2')
    for link in link.extract_links(response):
      yield scrapy.Request(url=link.url,callback=self.example)
  def example(self,response):
      #进入每个脚本的页面,抓取源码文件按钮,并和base_url结合起来形成一个完整的url
    href = response.css('a.reference.external::attr(href)').extract_first()
    url = response.urljoin(href)
    example = matplotlib()
    example['file_urls'] = [url]
    return example

pipelines.py

class MyFilePlipeline(FilesPipeline):
  def file_path(self, request, response=None, info=None):
    path = urlparse(request.url).path
    return join(basename(dirname(path)),basename(path))

settings.py

ITEM_PIPELINES = {
  'weidashang.pipelines.MyFilePlipeline': 1,
}
FILES_STORE = 'examples_src'

items.py

class matplotlib(Item):
  file_urls = Field()
  files = Field()

run.py

from scrapy.cmdline import execute
execute(['scrapy', 'crawl', 'mat','-o','example.json'])

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总

希望本文所述对大家Python程序设计有所帮助。

相关文章

  • Python数据处理的六种方式总结

    Python数据处理的六种方式总结

    在 Python 的数据处理方面经常会用到一些比较常用的数据处理方式,比如pandas、numpy等等。今天介绍的这款 Python 数据处理的管道数据处理方式,通过链式函数的方式可以轻松的完成对list列表数据的处理,希望对大家有所帮助
    2022-11-11
  • Python 中如何将十六进制转换为 Base64

    Python 中如何将十六进制转换为 Base64

    本篇文章将介绍在 Python 中将 hex 转换为 base64 的方法,本文结合实例代码给大家介绍的非常详细,需要的朋友可以参考下
    2023-06-06
  • python实现数通设备端口监控示例

    python实现数通设备端口监控示例

    这篇文章主要介绍了python实现数通设备端口监控示例,需要的朋友可以参考下
    2014-04-04
  • python抢购软件/插件/脚本附完整源码

    python抢购软件/插件/脚本附完整源码

    这篇文章主要介绍了python抢购软件/插件/脚本附完整源码,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2021-03-03
  • python sklearn与pandas实现缺失值数据预处理流程详解

    python sklearn与pandas实现缺失值数据预处理流程详解

    对于缺失值的处理,主要配合使用sklearn.impute中的SimpleImputer类、pandas、numpy。其中由于pandas对于数据探索、分析和探查的支持较为良好,因此围绕pandas的缺失值处理较为常用
    2022-09-09
  • Python+Turtle动态绘制一棵树实例分享

    Python+Turtle动态绘制一棵树实例分享

    这篇文章主要介绍了Python+Turtle动态绘制一棵树实例分享,具有一定借鉴价值,需要的朋友可以参考下
    2018-01-01
  • Python如何使用paramiko模块连接linux

    Python如何使用paramiko模块连接linux

    这篇文章主要介绍了Python如何使用paramiko模块连接linux,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-03-03
  • Flask和Django框架中自定义模型类的表名、父类相关问题分析

    Flask和Django框架中自定义模型类的表名、父类相关问题分析

    这篇文章主要介绍了Flask和Django框架中自定义模型类的表名、父类相关问题,结合实例形式对比分析了Flask框架与Django框架表名定义方式的不同之处,并简单描述了框架的父类继承问题,需要的朋友可以参考下
    2018-07-07
  • Python协程的2种实现方式分享

    Python协程的2种实现方式分享

    在 Python 中,协程(Coroutine)是一种轻量级的并发编程方式,可以通过协作式多任务来实现高效的并发执行。本文主要介绍了Python实现协程的2种方式,希望对大家有所帮助
    2023-04-04
  • Python Playwright 文本框操作技巧

    Python Playwright 文本框操作技巧

    这篇文章主要介绍了Python Playwright 文本框操作技巧,包括如何获得文本框的值,以及向文本框中添加单行和多行文本,本文结合实例代码给大家介绍的非常详细,需要的朋友可以参考下
    2023-05-05

最新评论