python3 scrapy框架的执行流程

 更新时间:2021年07月08日 15:54:58   作者:百里 Jess  
Scrapy的安装有多种方式,它支持Python2.7版本及以上或Python3.3版本及以上。下面说明python3 scrapy框架的常用命令及框架执行流程,感兴趣的朋友一起看看吧

scrapy框架概述:Scrapy,Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。

创建项目

由于pycharm不能直接创建scrapy项目,必须通过命令行创建,所以相关操作在pycharm的终端进行:
1、安装scrapy模块:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple scrapy
2、创建一个scrapy项目:scrapy startproject test_scrapy
4、生成一个爬虫:scrapy genspider itcast "itcast.cn”
5、提取数据:完善spider,使用xpath等方法
6、保存数据:pipeline中保存数据

常用的命令

创建项目:scrapy startproject xxx
进入项目:cd xxx #进入某个文件夹下
创建爬虫:scrapy genspider xxx(爬虫名) xxx.com (爬取域)
生成文件:scrapy crawl xxx -o xxx.json (生成某种类型的文件)
运行爬虫:scrapy crawl XXX
列出所有爬虫:scrapy list
获得配置信息:scrapy settings [options]

Scrapy项目下文件

scrapy.cfg: 项目的配置文件
test_scrapy/: 该项目的python模块。在此放入代码(核心)
test_scrapy/items.py: 项目中的item文件.(这是创建容器的地方,爬取的信息分别放到不同容器里)
test_scrapy/pipelines.py: 项目中的pipelines文件.
test_scrapy/settings.py: 项目的设置文件.(我用到的设置一下基础参数,比如加个文件头,设置一个编码)
test_scrapy/spiders/: 放置spider代码的目录. (放爬虫的地方)

scrapy

scrapy框架的整体执行流程

1.spider的yeild将request发送给engine
2.engine对request不做任何处理发送给scheduler
3.scheduler,生成request交给engine
4.engine拿到request,通过middleware发送给downloader
5.downloader在\获取到response之后,又经过middleware发送给engine
6.engine获取到response之后,返回给spider,spider的parse()方法对获取到的response进行处理,解析出items或者requests
7.将解析出来的items或者requests发送给engine
8.engine获取到items或者requests,将items发送给ItemPipeline,将requests发送给scheduler(ps,只有调度器中不存在request时,程序才停止,及时请求失败scrapy也会重新进行请求)

关于yeild函数介绍

简单地讲,yield 的作用就是把一个函数变成一个 generator(生成器),带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator,带有yeild的函数遇到yeild的时候就返回一个迭代值,下次迭代时, 代码从 yield 的下一条语句继续执行,而函数的本地变量看起来和上次中断执行前是完全一样的,于是函数继续执行, 直到再次遇到 yield。

通俗的讲就是:在一个函数中,程序执行到yield语句的时候,程序暂停,返回yield后面表达式的值,在下一次调用的时候,从yield语句暂停的地方继续执行,如此循环,直到函数执行完。

到此这篇关于python3 scrapy框架的执行流程的文章就介绍到这了,更多相关python3 scrapy框架内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • pytorch 中autograd.grad()函数的用法说明

    pytorch 中autograd.grad()函数的用法说明

    这篇文章主要介绍了pytorch 中autograd.grad()函数的用法说明,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-05-05
  • 10个python爬虫入门基础代码实例 + 1个简单的python爬虫完整实例

    10个python爬虫入门基础代码实例 + 1个简单的python爬虫完整实例

    这篇文章主要介绍了10个python爬虫入门基础代码实例和1个简单的python爬虫爬虫贴吧图片的实例,需要的朋友可以参考下
    2020-12-12
  • Python代码打开本地.mp4格式文件的方法

    Python代码打开本地.mp4格式文件的方法

    今天小编就为大家分享一篇Python代码打开本地.mp4格式文件的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-01-01
  • 在Python中操作时间之tzset()方法的使用教程

    在Python中操作时间之tzset()方法的使用教程

    这篇文章主要介绍了在Python中操作时间之tzset()方法的使用教程,是Python学习中的基础知识,需要的朋友可以参考下
    2015-05-05
  • Python中的占位符pass用法

    Python中的占位符pass用法

    在 Python 中,pass 是一个空操作语句,表示“什么都不做”,它通常用作占位符,用于在语法上需要语句但实际不需要执行任何操作的场景,本文给大家介绍Python中的占位符pass用法,感兴趣的朋友一起看看吧
    2025-04-04
  • Django操作session 的方法

    Django操作session 的方法

    这篇文章主要介绍了Django操作session 的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-03-03
  • Python HTTP下载文件并显示下载进度条功能的实现

    Python HTTP下载文件并显示下载进度条功能的实现

    这篇文章主要介绍了Python HTTP下载文件并显示下载进度条功能,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-04-04
  • 详解python之配置日志的几种方式

    详解python之配置日志的几种方式

    本篇文章主要介绍了详解python之配置日志的几种方式,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-05-05
  • Python 专题二 条件语句和循环语句的基础知识

    Python 专题二 条件语句和循环语句的基础知识

    本文主要介绍了Python条件语句和循环语句的基础知识。主要内容包括: 1.条件语句:包括单分支、双分支和多分支语句,if-elif-else;2.循环语句:while的使用及简单网络刷博器爬虫;3.循环语句:for的使用及遍历列表、元组、文件和字符串。
    2017-03-03
  • 如何基于OpenCV&Python实现霍夫变换圆形检测

    如何基于OpenCV&Python实现霍夫变换圆形检测

    最近开始学习opencv,想检测图片上的圆环,发现霍夫变换可以做这样的效果出来,于是尝试用霍夫变换做了下圆环检测,这篇文章主要给大家介绍了基于OpenCV&Python实现霍夫变换圆形检测的相关资料,需要的朋友可以参考下
    2021-08-08

最新评论