python中scrapy处理项目数据的实例分析

 更新时间:2020年11月22日 08:52:10   作者:小妮浅浅  
在本篇文章里小编给大家整理了关于python中scrapy处理项目数据的实例分析内容,有兴趣的朋友们可以学习下。

在我们处理完数据后,习惯把它放在原有的位置,但是这样也会出现一定的隐患。如果因为新数据的加入或者其他种种原因,当我们再次想要启用这个文件的时候,小伙伴们就会开始着急却怎么也翻不出来,似乎也没有其他更好的搜集办法,而重新进行数据整理显然是不现实的。下面我们就一起看看python爬虫中scrapy处理项目数据的方法吧。

1、拉取项目

$ git clone https://github.com/jonbakerfish/TweetScraper.git

$ cd TweetScraper/

$ pip install -r requirements.txt #add '--user' if you are not root

$ scrapy list

$ #If the output is 'TweetScraper', then you are ready to go.

2、数据持久化

通过阅读文档,我们发现该项目有三种持久化数据的方式,第一种是保存在文件中,第二种是保存在Mongo中,第三种是保存在MySQL数据库中。因为我们抓取的数据需要做后期的分析,所以,需要将数据保存在MySQL中。

抓取到的数据默认是以Json格式保存在磁盘 ./Data/tweet/ 中的,所以,需要修改配置文件 TweetScraper/settings.py 。

ITEM_PIPELINES = {  # 'TweetScraper.pipelines.SaveToFilePipeline':100,
#'TweetScraper.pipelines.SaveToMongoPipeline':100, # replace `SaveToFilePipeline` with this to use MongoDB
  'TweetScraper.pipelines.SavetoMySQLPipeline':100, # replace `SaveToFilePipeline` with this to use MySQL
}
#settings for mysql
MYSQL_SERVER = "18.126.219.16"
MYSQL_DB   = "scraper"
MYSQL_TABLE = "tweets" # the table will be created automatically
MYSQL_USER  = "root"    # MySQL user to use (should have INSERT access granted to the Database/Table
MYSQL_PWD  = "admin123456"    # MySQL user's password

内容扩展:

scrapy.cfg是项目的配置文件

from scrapy.spider import BaseSpider
class DmozSpider(BaseSpider):
name = "dmoz"
allowed_domains = ["dmoz.org"]
start_urls = [
  "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
  "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
]
def parse(self, response):
  filename = response.url.split("/")[-2]
  open(filename, 'wb').write(response.body)

到此这篇关于python中scrapy处理项目数据的实例分析的文章就介绍到这了,更多相关python爬虫中scrapy如何处理项目数据内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python Web框架Flask下网站开发入门实例

    Python Web框架Flask下网站开发入门实例

    这篇文章主要介绍了Python Web框架Flask下网站开发入门实例,本文实现了一个注册页面、登录页面和上传页面,需要的朋友可以参考下
    2015-02-02
  • Python3+Pycharm+PyQt5环境搭建步骤图文详解

    Python3+Pycharm+PyQt5环境搭建步骤图文详解

    这篇文章主要介绍了Python3+Pycharm+PyQt5环境搭建步骤图文详解,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-05-05
  • Keras使用预训练模型迁移学习单通道灰度图像详解

    Keras使用预训练模型迁移学习单通道灰度图像详解

    这篇文章主要介绍了Keras使用预训练模型迁移学习单通道灰度图像详解,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-02-02
  • windows下Virtualenvwrapper安装教程

    windows下Virtualenvwrapper安装教程

    这篇文章主要为大家详细介绍了windows下Virtualenvwrapper安装教程,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2017-12-12
  • Python使用定时调度任务的方式

    Python使用定时调度任务的方式

    Python 有几种方法可以定时调度一个任务,这就是我们将在本文中学习的内容。接下俩下边将给大家介绍5种Python使用定时调度任务方式,需要的朋友可以参考下面文章内容吧
    2021-09-09
  • Python 动态绑定属性和方法 

    Python 动态绑定属性和方法 

    这篇文章主要介绍了Python 动态绑定属性和方法, 动态语言与静态语言有很多不同,最大的特性之一就是可以实现动态的对类和实例进行修改,在Python中,我们创建了一个类后可以对实例和类绑定心的方法或者属性,实现动态绑定,下面详细介绍需要的朋友可以参考一下
    2022-03-03
  • padas 生成excel 增加sheet表的实例

    padas 生成excel 增加sheet表的实例

    今天小编就为大家分享一篇padas 生成excel 增加sheet表的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • Python中sorted()排序与字母大小写的问题

    Python中sorted()排序与字母大小写的问题

    这篇文章主要介绍了Python中sorted()排序与字母大小写的问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-01-01
  • python实现两个一维列表合并成一个二维列表

    python实现两个一维列表合并成一个二维列表

    今天小编就为大家分享一篇python实现两个一维列表合并成一个二维列表,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-12-12
  • python协程与 asyncio 库详情

    python协程与 asyncio 库详情

    这篇文章主要介绍了python协程与 asyncio 库详情,文章基于python展开详细内容,具有一定的参考价值。需要的小伙伴可以参考一下
    2022-05-05

最新评论