python爬虫控制aiohttp并发数量方式

 更新时间:2024年06月27日 10:48:16   作者:NULL_1969  
这篇文章主要介绍了python爬虫控制aiohttp并发数量方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教

前言

在使用aiohttp并发访问多个页面时效率,明显比串行requests快很多,

但是也存在一个问题,就是网站检测到短时间内请求的数量过多会导致页面请求不成成功,

页面返回429 (too many requests)。

解决上述问题

目前想到两个方法

1、控制请求的时间,用sleep延时,来消耗每一次访问的时间,减少单位时间内的访问量,这样肯定是可以,但效率太低

2、控制并发数量,控制并发数量,普遍推荐用信号量来控制使用方法也比较简单如下:

from asyncio import tasks
from aiohttp.client import ClientSession
from lxml import etree
from time import sleep
import time
import asyncio
import aiohttp

async def read_page_list(page_num,sem):
    params = {
        'page':page_num,
    }
    #通过连接池控制并发数量 limit 默认为100  0 为无限制
    async with sem:
        try:
            async with aiohttp.ClientSession() as session:
                async with session.get(url=url,params=params,headers=headers) as response:
                    text = await response.text()
        except Exception as e:
            print('exception:',e)
        
        tree = etree.HTML(text)
        page_list = tree.xpath('//*[@id="thumbs"]/section[1]/ul/li')
        # break
        for li in page_list:
            pic_small_url = li.xpath('.//img/@data-src')[0]
            # print(pic_small_url,type(pic_small_url))
            # pic_small_url = str(pic_small_url)
            if 'small' in pic_small_url:
                temp_url = pic_small_url.replace('small','full')
                a = temp_url.rfind('/')
                temp_url1= temp_url[:a]
                pic_full_url = temp_url1+'/wallhaven-'+temp_url.split('/')[-1]
                pic_full_url = pic_full_url.replace('th','w')
                # print(page_num,pic_full_url)
                pic_list.append(pic_full_url)
            else:
                print(page_num,'find small error',pic_small_url)
            
        print(page_num,len(page_list),response.status)
        # await asyncio.sleep(1)
        #这里可以用硬延时来控制程序的访问速度,进而控制单位时间内并发的数量
        # sleep(0.5)

#定义信号量
sem = asyncio.Semaphore(2)

start = time.time()
#建立任务列表
tasks = [loop.create_task(read_page_list(i,sem)) for i in range(1,20)]
loop.run_until_complete(asyncio.wait(tasks))
print('get page list use time:',time.time()-start)


实验结果

如下:

  • 经试验只有当请求页面20个 sem=1时才不会出现服务器返回429.
  • 当把请求页面数量改为10 sem=5是就不会出现服务返回429的情况

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • 深入探究Django中的Session与Cookie

    深入探究Django中的Session与Cookie

    周末小闲在家研究了下django的 cookie 和 session,所以下面这篇文章主要给大家深入地介绍了关于Django中Session与Cookie的相关资料,文中通过示例代码介绍的非常详细,需要的朋友们下面跟着小编来一起看看吧。
    2017-07-07
  • Python划分数组为连续数字集合的练习

    Python划分数组为连续数字集合的练习

    这篇文章主要给大家分享的是Python划分数组为连续数字集合的练习,下面文章首先对问题进行详细描述,在根据问题提出解决方案,内容详细,需要的朋友可以参考一下,希望对你有所帮助
    2021-11-11
  • Python进度条神器tqdm使用实例详解

    Python进度条神器tqdm使用实例详解

    Python进度条神器tqdm是一个快速、可扩展的进度条工具,可以轻松地为Python脚本添加进度条。它可以在循环中自动计算进度,并在终端中显示进度条,让用户了解程序的运行情况。tqdm还支持多线程和多进程,并且可以自定义进度条的样式和显示方式。
    2023-06-06
  • Python自定义聚合函数merge与transform区别详解

    Python自定义聚合函数merge与transform区别详解

    这篇文章主要介绍了Python自定义聚合函数merge与transform区别详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-05-05
  • django的ORM操作 增加和查询

    django的ORM操作 增加和查询

    这篇文章主要介绍了django的ORM操作 增加和查询,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-07-07
  • Pytorch中torch.flatten()和torch.nn.Flatten()实例详解

    Pytorch中torch.flatten()和torch.nn.Flatten()实例详解

    这篇文章主要给大家介绍了关于Pytorch中torch.flatten()和torch.nn.Flatten()的相关资料,文中通过实例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2022-02-02
  • PyTorch深度学习LSTM从input输入到Linear输出

    PyTorch深度学习LSTM从input输入到Linear输出

    这篇文章主要为大家介绍了PyTorch深度学习LSTM从input输入到Linear输出深入理解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-05-05
  • python设置代理和添加镜像源的方法

    python设置代理和添加镜像源的方法

    这篇文章主要介绍了python设置代理和添加镜像源介绍,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-02-02
  • Python 中如何将十六进制转换为 Base64

    Python 中如何将十六进制转换为 Base64

    本篇文章将介绍在 Python 中将 hex 转换为 base64 的方法,本文结合实例代码给大家介绍的非常详细,需要的朋友可以参考下
    2023-06-06
  • python OpenCV实现图像特征匹配示例详解

    python OpenCV实现图像特征匹配示例详解

    这篇文章主要为大家介绍了python OpenCV实现图像特征匹配示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-04-04

最新评论