Python爬虫 scrapy框架爬取某招聘网存入mongodb解析

 更新时间:2019年07月31日 10:03:59   作者:Tanglaoer  
这篇文章主要介绍了Python爬虫 scrapy框架爬取某招聘网存入mongodb解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

创建项目

scrapy startproject zhaoping

创建爬虫

cd zhaoping
scrapy genspider hr zhaopingwang.com

目录结构

items.py

  title = scrapy.Field()
  position = scrapy.Field()
  publish_date = scrapy.Field()

pipelines.py

from pymongo import MongoClient

mongoclient = MongoClient(host='192.168.226.150',port=27017)
collection = mongoclient['zhaoping']['hr']

class TencentPipeline(object):
  def process_item(self, item, spider):
    print(item)
    # 需要转换为 dict
    collection.insert(dict(item))
    return item

spiders/hr.py

def parse(self, response):
    # 不要第一个 和最后一个
    tr_list = response.xpath("//table[@class='tablelist']/tr")[1:-1]
    for tr in tr_list:
      item = TencentItem()
      # xpath 从1 开始数起
      item["title"] = tr.xpath("./td[1]/a/text()").extract_first()
      item["position"] = tr.xpath("./td[2]/text()").extract_first()
      item["publish_date"] = tr.xpath("./td[5]/text()").extract_first()
      yield item

    next_url = response.xpath("//a[@id='next']/@href").extract_first()
    # 构造url
    if next_url != "javascript:;":
      print(next_url)
      next_url = "https://hr.tencent.com/" + next_url
      yield scrapy.Request(url=next_url,callback=self.parse,)

就是这么简单,就获取到数据

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。

您可能感兴趣的文章:

相关文章

  • python实现多线程网页下载器

    python实现多线程网页下载器

    这篇文章主要为大家详细介绍了python实现一个多线程网页下载器,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-04-04
  • PyQt5结合matplotlib绘图的实现示例

    PyQt5结合matplotlib绘图的实现示例

    这篇文章主要介绍了PyQt5结合matplotlib绘图的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-09-09
  • 利用Pycharm断点调试Python程序的方法

    利用Pycharm断点调试Python程序的方法

    今天小编就为大家分享一篇利用Pycharm断点调试Python程序的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-11-11
  • Python3匿名函数lambda介绍与使用示例

    Python3匿名函数lambda介绍与使用示例

    这篇文章主要给大家介绍了关于Python3匿名函数lambda与使用的相关资料,文中通过示例代码介绍的非常详细,对大家学习或者使用Python3具有一定的参考学习价值,需要的朋友们下面来一起学习学习吧
    2019-05-05
  • python slack桌面自动化开发工具

    python slack桌面自动化开发工具

    这篇文章主要为大家介绍了python slack桌面自动化开发工具使用示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-08-08
  • Python3和PyCharm安装与环境配置【图文教程】

    Python3和PyCharm安装与环境配置【图文教程】

    这篇文章主要介绍了Python3和PyCharm安装与环境配置,结合图文形式详细分析了Python3和PyCharm的安装、环境配置、测试命令及相关操作注意事项,需要的朋友可以参考下
    2020-02-02
  • Python groupby函数图文详解

    Python groupby函数图文详解

    pandas中DataFrame提供了一个灵活高效的groupby功能,它使你能以一种自然的方式对数据集进行切片、切块、摘要等操作,下面这篇文章主要给大家介绍了关于Python groupby函数详解的相关资料,需要的朋友可以参考下
    2022-07-07
  • Pytest中skip skipif跳过用例详解

    Pytest中skip skipif跳过用例详解

    今天给大家带来的是关于Python的相关知识,文章围绕着Pytest中skip skipif跳过用例展开,文中有非常详细的介绍及代码示例,需要的朋友可以参考下
    2021-06-06
  • Pandas探索之高性能函数eval和query解析

    Pandas探索之高性能函数eval和query解析

    这篇文章主要介绍了Pandas探索之高性能函数eval和query解析,小编觉得还是挺不错的,这里分享给大家,供需要的朋友参考。
    2017-10-10
  • python条件和循环的使用方法

    python条件和循环的使用方法

    下面我们来介绍python条件语句和循环语句的使用方法。
    2013-11-11

最新评论