python批量爬取图片的方法详解

 更新时间:2023年12月11日 09:17:17   作者:开心就好啦啦啦  
这篇文章给大家介绍了如何使用python批量爬取图片,文中通过代码示例给大家介绍的非常详细,对大家的学习或工作有一定的帮助,需要的朋友可以参考下

在这里插入图片描述

爬取的目标网站为

https://sc.chinaz.com/tupian/qinglvtupian.html

如果爬取多页,需要依次遍历每一页,经过分析跳转其它页面的规律如下

https://sc.chinaz.com/tupian/qinglvtupian_N.html
N从2开始,除了第一页不同,后面跳转其它页面规律相同

爬虫步骤

  • 根据请求url地址获取网页源码,使用requests库
  • 通过xpath解析源码获取需要的数据
  • 获取到数据下载到本地

爬取前十页图片到本地

根据页码获取网络源码

def create_request(page):
    if page == 1:
        url = 'https://sc.chinaz.com/tupian/qinglvtupian.html'
    else:
        url = 'https://sc.chinaz.com/tupian/qinglvtupian_'+str(page)+'.html'
    header = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36'
    }
    request = urllib.request.Request(url,headers=header)
    #获取网络源码
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content

使用xpath解析网页

使用xpath需要在chrome中安装此插件,安装xpath完成后,按alt+shift+x就会出现黑框

//img[@class="lazy"]/@alt  #获取图片名称
//img[@class="lazy"]/@data-original  #获取图片地址

在这里插入图片描述

解析网页并下载图片

下载图片、网页、视频使用的函数为urllib.request.urlretrieve()

def down_load(content):
    tree = etree.HTML(content) #解析网页数据   解析本地的html文件  etree.parse('D:/pages/test.html')
    name_list = tree.xpath('//img[@class="lazy"]/@alt')
    # 图片会进行懒加载
    src_list = tree.xpath('//img[@class="lazy"]/@data-original')
    for i in range(len(name_list)):
        name = name_list[i]
        src = src_list[i]
        url = 'https:'+src
        urllib.request.urlretrieve(url,filename='../loveImg/'+name+'.jpg')#先在当前目录下创建loveImg文件夹

主函数如下

if __name__ == '__main__':
    start_page = int(input("开始页"))
    end_page = int(input("结束页"))
    for page in range(start_page,end_page+1):
        context = create_request(page)
        down_load(context)

下载的图片会在loveImg目录

在这里插入图片描述

以上就是python批量爬取图片的方法详解的详细内容,更多关于python批量爬取图片的资料请关注脚本之家其它相关文章!

相关文章

  • python爬虫的一个常见简单js反爬详解

    python爬虫的一个常见简单js反爬详解

    这篇文章主要介绍了python爬虫的一个常见简单js反爬详解我们在写爬虫是遇到最多的应该就是js反爬了,今天分享一个比较常见的js反爬,我把js反爬分为参数由js加密生成和js生成cookie等来操作浏览器这两部分,需要的朋友可以参考下
    2019-07-07
  • Python模拟登录12306的方法

    Python模拟登录12306的方法

    这篇文章主要介绍了Python模拟登录12306的方法,是非常实用的技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2014-12-12
  • Python 制作自动化翻译工具

    Python 制作自动化翻译工具

    这篇文章主要介绍了Python 实现自动化翻译和替换的脚本,帮助大家更好的理解和学习使用python,提高办公效率感兴趣的朋友可以了解下
    2021-04-04
  • python单例模式实例分析

    python单例模式实例分析

    这篇文章主要介绍了python单例模式,实例分析了单例模式的原理与使用技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2015-04-04
  • python爬虫基础之urllib的使用

    python爬虫基础之urllib的使用

    这篇文章主要介绍了python爬虫基础之urllib的使用,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-12-12
  • python使用Faker进行随机数据生成

    python使用Faker进行随机数据生成

    大家好,本篇文章主要讲的是python使用Faker进行随机数据生成,感兴趣的同学赶快来看一看吧,对你有帮助的话记得收藏一下
    2022-02-02
  • python实现高斯判别分析算法的例子

    python实现高斯判别分析算法的例子

    今天小编就为大家分享一篇python实现高斯判别分析算法的例子,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-12-12
  • Python列表生成式和字典生成式实例

    Python列表生成式和字典生成式实例

    这篇文章主要介绍了Python列表生成式和字典生成式实例,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-06-06
  • Django中日期处理注意事项与自定义时间格式转换详解

    Django中日期处理注意事项与自定义时间格式转换详解

    这篇文章主要给大家介绍了关于Django中日期处理注意事项与自定义时间格式转换的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2018-08-08
  • Scrapy抓取京东商品、豆瓣电影及代码分享

    Scrapy抓取京东商品、豆瓣电影及代码分享

    Scrapy,Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。
    2017-11-11

最新评论