Python scrapy爬取起点中文网小说榜单

 更新时间:2021年06月13日 10:05:13   作者:超哥--  
爬虫的基础内容已经全部学玩,博主决定想着更加标准化以及实用能力更强的scrapy进发,今天记录自己第一个scrapy爬虫项目. scrapy爬取起点中文网24小时热销榜单,需要的朋友可以参考下

一、项目需求

爬取排行榜小说的作者,书名,分类以及完结或连载

二、项目分析

目标url:“https://www.qidian.com/rank/hotsales?style=1&page=1

在这里插入图片描述

通过控制台搜索发现相应信息均存在于html静态网页中,所以此次爬虫难度较低。

在这里插入图片描述

通过控制台观察发现,需要的内容都在一个个li列表中,每一个列表代表一本书的内容。

在这里插入图片描述

在li中找到所需的内容

在这里插入图片描述

找到第两页的url
“https://www.qidian.com/rank/hotsales?style=1&page=1”
“https://www.qidian.com/rank/hotsales?style=1&page=2”
对比找到页数变化
开始编写scrapy程序。

三、程序编写

创建项目太简单,不说了

1.编写item(数据存储)

import scrapy

class QidianHotItem(scrapy.Item):
    name = scrapy.Field() #名称
    author = scrapy.Field() #作者
    type = scrapy.Field() #类型
    form= scrapy.Field() #是否完载

2.编写spider(数据抓取(核心代码))

#coding:utf-8

from scrapy import Request
from scrapy.spiders import Spider
from ..items import QidianHotItem
#导入下需要的库

class HotSalesSpider(Spider):#设置spider的类
    name = "hot" #爬虫的名称
    qidian_header={"user-agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"} #设置header
    current_page = 1 #爬虫起始页
    def start_requests(self): #重写第一次请求
        url="https://www.qidian.com/rank/hotsales?style=1&page=1"
        yield Request(url,headers=self.qidian_header,callback=self.hot_parse)
		#Request发起链接请求
		#url:目标url
		#header:设置头部(模拟浏览器)
		#callback:设置页面抓起方式(空默认为parse)
    def hot_parse(self, response):#数据解析
        #xpath定位
        list_selector=response.xpath("//div[@class='book-mid-info']")
        #获取所有小说
        for one_selector in list_selector:
            #获取小说信息
            name=one_selector.xpath("h4/a/text()").extract()[0]
            #获取作者
            author=one_selector.xpath("p[1]/a[1]/text()").extract()[0]
            #获取类型
            type=one_selector.xpath("p[1]/a[2]/text()").extract()[0]
            # 获取形式
            form=one_selector.xpath("p[1]/span/text()").extract()[0]

            item = QidianHotItem()
            #生产存储器,进行信息存储
            item['name'] = name
            item['author'] = author
            item['type'] = type
            item['form'] = form

            yield item #送出信息

            # 获取下一页URL,并生成一个request请求
            self.current_page += 1
            if self.current_page <= 10:#爬取前10页
                next_url = "https://www.qidian.com/rank/hotsales?style=1&page="+str(self.current_page)
                yield Request(url=next_url,headers=self.qidian_header,callback=self.hot_parse)


    def css_parse(self,response):
        #css定位
        list_selector = response.css("[class='book-mid-info']")
        for one_selector in list_selector:
            # 获取小说信息
            name = one_selector.css("h4>a::text").extract()[0]
            # 获取作者
            author = one_selector.css(".author a::text").extract()[0]
            # 获取类型
            type = one_selector.css(".author a::text").extract()[1]
            # 获取形式
            form = one_selector.css(".author span::text").extract()[0]
            # 定义字典

            item=QidianHotItem()
            item['name']=name
            item['author'] = author
            item['type'] = type
            item['form'] = form
            yield  item

3.start.py(代替命令行)

在爬虫项目文件夹下创建start.py。

在这里插入图片描述

from scrapy import cmdline
#导入cmd命令窗口
cmdline.execute("scrapy crawl hot -o hot.csv" .split())
#运行爬虫并生产csv文件

出现类似的过程代表爬取成功。

在这里插入图片描述

hot.csv

在这里插入图片描述

总结

本次爬虫内容还是十分简单的因为只用了spider和item,这几乎是所有scrapy都必须调用的文件,后期还会有middlewarse.py,pipelines.py,setting.py需要编写和配置,以及从javascript和json中提取数据,难度较大。

到此这篇关于Python scrapy爬取起点中文网小说榜单的文章就介绍到这了,更多相关Python爬取起点中文网内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python编程之属性和方法实例详解

    Python编程之属性和方法实例详解

    这篇文章主要介绍了Python编程之属性和方法,以实例形式较为详细的分析了Python中属性与方法的功能、特点与使用技巧,需要的朋友可以参考下
    2015-05-05
  • Python tkinter 下拉日历控件代码

    Python tkinter 下拉日历控件代码

    这篇文章主要介绍了Python tkinter 下拉日历控件代码,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-03-03
  • 完美解决keras 读取多个hdf5文件进行训练的问题

    完美解决keras 读取多个hdf5文件进行训练的问题

    这篇文章主要介绍了完美解决keras 读取多个hdf5文件进行训练的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-07-07
  • 详解Python3 中的字符串格式化语法

    详解Python3 中的字符串格式化语法

    字符串的格式化方法分为两种,分别为占位符(%)和format方式。这篇文章主要介绍了Python3 中的字符串格式化语法问题,需要的朋友可以参考下
    2020-01-01
  • Pytorch测试神经网络时出现 RuntimeError:的解决方案

    Pytorch测试神经网络时出现 RuntimeError:的解决方案

    这篇文章主要介绍了Pytorch测试神经网络时出现 RuntimeError:的解决方案,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2021-05-05
  • 浅析Python 实现一个自动化翻译和替换的工具

    浅析Python 实现一个自动化翻译和替换的工具

    这篇文章主要介绍了Python 实现一个自动化翻译和替换的工具,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-04-04
  • 由浅入深学习TensorFlow MNIST 数据集

    由浅入深学习TensorFlow MNIST 数据集

    这篇文章主要由浅入深学习的讲解TensorFlow MNIST 数据集,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2021-09-09
  • 如何使用Python的Requests包实现模拟登陆

    如何使用Python的Requests包实现模拟登陆

    这篇文章主要为大家详细介绍了使用Python的Requests包模拟登陆,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-04-04
  • 一文详解如何配置Pycharm进行远程开发

    一文详解如何配置Pycharm进行远程开发

    在搞深度学习的时候,我们在本地开发,但是需要在服务器去运行工程,所以需要使用Pycharm进行远程配置,下面这篇文章主要给大家介绍了关于如何配置Pycharm进行远程开发的相关资料,需要的朋友可以参考下
    2024-02-02
  • Python模块导入的几种方法实现

    Python模块导入的几种方法实现

    本文主要介绍了Python模块导入的几种方法实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2024-12-12

最新评论