Python爬虫实现爬取下载网站数据的几种方法示例

 更新时间:2023年11月03日 16:40:54   作者:追忆MHyourh  
这篇文章主要为大家介绍了Python爬虫实现爬取下载网站数据的几种方法示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪

引言

使用脚本进行下载的需求很常见,可以是常规文件、web页面、Amazon S3和其他资源。Python 提供了很多模块从 web 下载文件。下面介绍

一、使用 requests

requests 模块是模仿网页请求的形式从一个URL下载文件

示例代码:

import requests
url = 'xxxxxxxx'  # 目标下载链接
r = requests.get(url)  # 发送请求
# 保存
with open ('r.txt', 'rb') as f:
    f.write(r.content)
    f.close

二、使用 wget

安装 wget 库
pip install wget

示例代码

import wget
url = 'https://pic.cnblogs.com/avatar/1197773/20170712160655.png'  # 目标路由,下载的资源是图片
path = 'D:/x.png'  # 保存的路径
wget.download(url, path)  # 下载

三、下载重定向资源

有些 URL 会被重定向到另一个 URL,后者是真正的下载链接。很多软件的下载其实都是这样的形式。

URL看起来如下https://readthedocs.org/projects/python-guide/downloads/pdf/latest

重定向的 URL 也可以用 requests 库进行下载,只需加一个参数就可以

import requests
url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'
# allow_redirect参数True表示允许重定向
r = requests.get(url, allow_redirect=True)
with open('r.txt', 'wb') as f:
    f.write(r)
    f.close()

四、大文件分块下载

有些文件非常的大,如果我们直接下载,可能会因为事件原因或者网络原因造成下载失败,这时候我可以使用分块下载的形式进行下载。

requests 支持分块下载,只需要将 stream 设为True 即可

import requests
url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'
# stream参数True表示分块下载
r = requests.get(url, stream=True)
with open('r.txt', 'wb') as f:
    for ch in r:
        f.write(r)
    f.close()

五、并行下载

多线程、多进程并发下载,大大提高下载速度

import requests
from multiprocessing.poll import Pool
# 定义下载函数
def url_response(url):
    path, url = url
    r = requests.get(url, stream=True)
    with open(path, 'wb') as f:
        for ch in r:
            f.write(ch)
        f.close()
urls = ['aaa', 'bbb', 'ccc']  # 假设有好多个下载链接
# 排队下载的方式
for x in urls:
    url_response(x)
# 并行下载的方式
ThreadPool(3).imap_unordered(url_response, urls)

六、下载中加入进度条

使用进度条更直观的查看下载进度,这里使用 clint 模块实现进度条功能

pip install clint

下载

import requests
from clint.textui import progess
url = 'xxxxxxxxxxx'
r = requests.get(url, stream=True)
with open('x.txt', 'wb') as f
    total_length = int(r.headers.get('content-length'))
    for ch in progress.bar(r.iter_content(chunk_size=2391975, expected)size=(total_length/1024)+1)):
        if ch:
            f.write(ch)
    f.close()

七、使用 urllib 模块下载

urllib库是Python的标准库,因此不需要安装它。

下载代码

urllib.request.urlretrieve(URL, PATH)

八、通过代理下载

因为一些众所周知的原因我们下载国外的资源会非常的慢,这时候可以使用代理的方式进行下载

requests 模块使用代理

import requests
# 定义代理,假设本机上有个梯子的服务,代理端口是2258
proxy = {'http': 'http://127.0.0.1:2258'} 
url = 'xxxxxx'
r = requests.get(url, proxies=proxy )
.......

urllib 模块使用代理

import urllib.request
#Python小白学习交流群:153708845
url = 'xxxxxxxxxx'
proxy = urllib.request.ProxyHandler({'http': '127.0.0.1'})
open_proxy = urllib.request.build_opener(proxy )  # 打开代理
urllib.request.urlretrieve(url)

九、使用 urllib3

urllib3 是 urllib 模块的改进版本。使用pip下载并安装

pip install urllib3

以上就是Python爬虫实现爬取下载网站数据的几种方法示例的详细内容,更多关于Python爬取下载网站数据的资料请关注脚本之家其它相关文章!

相关文章

  • PyQt5 实现给无边框widget窗口添加背景图片

    PyQt5 实现给无边框widget窗口添加背景图片

    这篇文章主要介绍了PyQt5 实现给无边框widget窗口添加背景图片的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-03-03
  • Python自定义装饰器原理与用法实例分析

    Python自定义装饰器原理与用法实例分析

    这篇文章主要介绍了Python自定义装饰器原理与用法,结合实例形式较为详细的分析了Python自定义装饰器,带参数的装饰器等概念、原理、实现方法及相关使用技巧,需要的朋友可以参考下
    2018-07-07
  • Python中实现远程调用(RPC、RMI)简单例子

    Python中实现远程调用(RPC、RMI)简单例子

    说白了,远程调用就是将对象名、函数名、参数等传递给远程服务器,服务器将处理结果返回给客户端
    2014-04-04
  • python如何使用opencv提取光流详解

    python如何使用opencv提取光流详解

    这篇文章主要给大家介绍了关于python如何使用opencv提取光流的相关资料,文中通过图文以及实例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2022-09-09
  • 详解 python logging日志模块

    详解 python logging日志模块

    这篇文章主要介绍了详解 python logging日志模块,记录日志最简单的方法就是在你想要记录的地方加上一句 print , 我相信无论是新手还是老鸟都经常这么干。在简单的代码中或者小型项目中这么干一点问题都没有,需要的朋友可以参考下
    2022-01-01
  • Python实现的径向基(RBF)神经网络示例

    Python实现的径向基(RBF)神经网络示例

    这篇文章主要介绍了Python实现的径向基(RBF)神经网络,结合完整实例形式分析了Python径向基(RBF)神经网络定义与实现技巧,需要的朋友可以参考下
    2018-02-02
  • 关于Python 列表的索引取值问题

    关于Python 列表的索引取值问题

    这篇文章主要介绍了Python 列表的索引取值,本节重点掌握多次索引取值的语法:列表[索引][索引],结合示例代码给大家介绍的非常详细,需要的朋友可以参考下
    2022-09-09
  • python读取文件名称生成list的方法

    python读取文件名称生成list的方法

    下面小编就为大家分享一篇python读取文件名称生成list的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-04-04
  • Python抓取聚划算商品分析页面获取商品信息并以XML格式保存到本地

    Python抓取聚划算商品分析页面获取商品信息并以XML格式保存到本地

    这篇文章主要为大家详细介绍了Python抓取聚划算商品分析页面获取商品信息,并以XML格式保存到本地的方法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-02-02
  • python用循环新建多个列表的代码实例

    python用循环新建多个列表的代码实例

    当我们处理数据时,有时候需要创建多个列表以存储不同类型或不同条件下的数据,在Python中,我们可以利用循环来快速、高效地创建这些列表,本文将介绍如何使用循环在Python中创建多个列表,并提供代码实例,需要的朋友可以参考下
    2024-04-04

最新评论