Python爬虫中的并发编程详解

 更新时间:2023年05月04日 09:53:50   作者:互联小助手  
Python爬虫中的并发编程是一种优化爬取速度、解决阻塞问题、优化资源利用的方式。常用的并发编程模块包括多线程、多进程、协程等,通过并发处理多个任务,可以提高爬取效率,节省爬虫资源利用成本。同时,还需注意线程安全、共享资源问题等并发编程中的常见陷阱

并发编程在爬虫中的应用

本文将为大家介绍 Python 中的多线程、多进程和异步编程,并且以爬取“360图片”网站的图片并保存到本地为例,为大家分别展示使用单线程、多线程和异步 I/O 编程的爬虫程序有什么区别,同时也对它们的执行效率进行简单的对比。

什么是并发编程

并发编程是指在一个时间段内,能够执行多个操作的程序设计,通常表现为程序中有多个任务同时启动,可以运行并且相互之间不会产生影响。并发编程的好处是可以提高程序的性能和响应能力。

并发编程在爬虫中的应用

爬虫程序是典型的 I/O 密集型任务,对于 I/O 密集型任务来说,多线程和异步 I/O 都是很好的选择,因为当程序的某个部分因 I/O 操作阻塞时,程序的其他部分仍然可以运转,这样我们不用在等待和阻塞中浪费大量的时间。

单线程版本

我们首先来看单线程版本的爬虫程序。这个爬虫程序使用了requests库获取 JSON 数据,并通过open函数将图片保存到本地。

"""
example04.py - 单线程版本爬虫
"""
import os
import requests
def download_picture(url):
    filename = url[url.rfind('/') + 1:]
    resp = requests.get(url)
    if resp.status_code == 200:
        with open(f'images/beauty/{filename}', 'wb') as file:
            file.write(resp.content)
def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    for page in range(3):
        resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
        if resp.status_code == 200:
            pic_dict_list = resp.json()['list']
            for pic_dict in pic_dict_list:
                download_picture(pic_dict['qhimg_url'])
if __name__ == '__main__':
    main()

在 macOS 或 Linux 系统上,我们可以使用time命令来了解上面代码的执行时间以及 CPU 的利用率,如下所示。

time python3 example04.py

下面是单线程爬虫代码在我的电脑上执行的结果。

python3 example04.py  2.36s user 0.39s system 12% cpu 21.578 total

这里我们只需要关注代码的总耗时为21.578秒,CPU 利用率为12%

多线程版本

我们使用之前讲到过的线程池技术,将上面的代码修改为多线程版本。

"""
example05.py - 多线程版本爬虫
"""
import os
from concurrent.futures import ThreadPoolExecutor
import requests
def download_picture(url):
    filename = url[url.rfind('/') + 1:]
    resp = requests.get(url)
    if resp.status_code == 200:
        with open(f'images/beauty/{filename}', 'wb') as file:
            file.write(resp.content)
def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    with ThreadPoolExecutor(max_workers=16) as pool:
        for page in range(3):
            resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
            if resp.status_code == 200:
                pic_dict_list = resp.json()['list']
                for pic_dict in pic_dict_list:
                    pool.submit(download_picture, pic_dict['qhimg_url'])
if __name__ == '__main__':
    main()

执行如下所示的命令。

time python3 example05.py

代码的执行结果如下所示:

python3 example05.py  2.65s user 0.40s system 95% cpu 3.193 total

异步I/O版本

我们使用aiohttp将上面的代码修改为异步 I/O 的版本。为了以异步 I/O 的方式实现网络资源的获取和写文件操作,我们首先得安装三方库aiohttpaiofile

pip install aiohttp aiofile

下面是异步 I/O 版本的爬虫代码。

"""
example06.py - 异步I/O版本爬虫
"""
import asyncio
import json
import os
import aiofile
import aiohttp
async def download_picture(session, url):
    filename = url[url.rfind('/') + 1:]
    async with session.get(url, ssl=False) as resp:
        if resp.status == 200:
            data = await resp.read()
            async with aiofile.async_open(f'images/beauty/{filename}', 'wb') as file:
                await file.write(data)
async def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    async with aiohttp.ClientSession() as session:
        tasks = []
        for page in range(3):
            resp = await session.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
            if resp.status == 200:
                pic_dict_list = (await resp.json())['list']
                for pic_dict in pic_dict_list:
                    tasks.append(asyncio.ensure_future(download_picture(session, pic_dict['qhimg_url'])))
        await asyncio.gather(*tasks)
if __name__ == '__main__':
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())

执行如下所示的命令。

time python3 example06.py

代码的执行结果如下所示:

python3 example06.py  0.92s user 0.27s system 290% cpu 0.420 total

相对于单线程版本的爬虫程序,多线程版本和异步 I/O 版本的爬虫程序在执行上的时间上有了显著的提升,而且异步 I/O 版本的爬虫程序表现最佳。

总结:通过对单线程版本、多线程版本和异步 I/O 版本的爬虫程序的对比,我们可以看出在爬虫程序中使用异步 I/O 可以更好地发挥程序的性能和响应能力。因此,我们在实际的开发中应该更加注重并发编程的应用。

到此这篇关于Python爬虫中的并发编程详解的文章就介绍到这了,更多相关Python并发编程内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python函数定义及传参方式详解(4种)

    Python函数定义及传参方式详解(4种)

    这篇文章主要介绍了Python函数定义及传参方式详解(4种),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-03-03
  • 教你如何用一行Python代码实现GUI图形界面

    教你如何用一行Python代码实现GUI图形界面

    GUI(图形用户界面),顾名思义就是用图形的方式,来显示计算机操作的界面,更加方便且直观。本文将用一行代码实现GUI界面的制作,需要的可以参考一下
    2022-05-05
  • Tensorflow 利用tf.contrib.learn建立输入函数的方法

    Tensorflow 利用tf.contrib.learn建立输入函数的方法

    这篇文章主要介绍了Tensorflow 利用tf.contrib.learn建立输入函数的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-02-02
  • Python Web编程之WSGI协议简介

    Python Web编程之WSGI协议简介

    这篇文章主要介绍了Python Web编程之WSGI协议,简单说明了WSGI的概念、功能并结合实例形式分析了Gunicorn和uWSGI相关实现技巧,需要的朋友可以参考下
    2018-07-07
  • Python中的pickle模块解析

    Python中的pickle模块解析

    这篇文章主要介绍了Python中的pickle模块解析,pickle 模块和 json 模块很像,都有序列化的功能,不过 pickle 模块更加局限一些只能对 python 使用,它可以对一个 python 对象结构的二进制序列化和反序列化,需要的朋友可以参考下
    2023-09-09
  • 小结Python用fork来创建子进程注意事项

    小结Python用fork来创建子进程注意事项

    今天看到别人的源代码中有 fork 子进程来操作数据。但是由于 fork 之后,没有及时的退出,导致系统中的Python进程越来越多,子进程越来越多了。
    2014-07-07
  • Python异步爬虫多线程与线程池示例详解

    Python异步爬虫多线程与线程池示例详解

    这篇文章主要为大家介绍了Python异步爬虫多线程与线程池示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步
    2021-09-09
  • Python中django学习心得

    Python中django学习心得

    这篇文章主要介绍了Python中django Web应用框架的学习做了总结并把心得体会写了一下,大家一起参考下吧。
    2017-12-12
  • python虚拟环境模块venv使用及示例

    python虚拟环境模块venv使用及示例

    这篇文章主要介绍了python虚拟环境模块venv,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-03-03
  • Django中使用Json返回数据的实现方法

    Django中使用Json返回数据的实现方法

    这篇文章主要介绍了Django中使用Json返回数据的实现方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-06-06

最新评论