python爬虫基础之简易网页搜集器

 更新时间:2021年04月26日 10:19:36   作者:世界的隐喻  
这篇文章主要介绍了python爬虫基础之简易网页搜集器,文中有非常详细的代码示例,对正在学习python爬虫的小伙伴们有非常好的帮助,需要的朋友可以参考下

简易网页搜集器

前面我们已经学会了简单爬取浏览器页面的爬虫。但事实上我们的需求当然不是爬取搜狗首页或是B站首页这么简单,再不济,我们都希望可以爬取某个特定的有信息的页面。

不知道在学会了爬取之后,你有没有跟我一样试着去爬取一些搜索页面,比如说百度。像这样的页面

在这里插入图片描述

注意我红笔划的部分,这是我打开的网页。现在我希望能爬取这一页的数据,按我们前面学的代码,应该是这样写的:

import requests

if __name__ == "__main__":
    # 指定URL
    url = "https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=2&tn=93923645_hao_pg&wd=%E5%A5%A5%E7%89%B9%E6%9B%BC&rsv_spt=1&oq=%25E7%2588%25AC%25E5%258F%2596%25E7%2599%25BE%25E5%25BA%25A6%25E9%25A6%2596%25E9%25A1%25B5&rsv_pq=b233dcfd0002d2d8&rsv_t=ccdbEuqbJfqtjnkFvevj%2BfxQ0Sj2UP88ixXHTNUNsmTa9yWEWTUEgxTta9r%2Fj3mXxDs%2BT1SU&rqlang=cn&rsv_dl=tb&rsv_enter=1&rsv_sug3=8&rsv_sug1=5&rsv_sug7=100&rsv_sug2=0&rsv_btype=t&inputT=1424&rsv_sug4=1424"

    # 发送请求
    response = requests.get(url)

    # 获取数据
    page_text = response.text

    # 存储
    with open("./奥特曼.html", "w", encoding = "utf-8") as fp:
        fp.write(page_text)

    print("爬取成功!!!")

然而打开我们保存的文件,发现结果跟我们想的不太一样

在这里插入图片描述

我们发现我们保存的文件是一个空白的页面,这是为什么呢?

其实上我们把网址改成搜狗的可能或更直观一些(不知道为什么我这边的搜狗总是打不开,所以就用百度做例子,可以自己写写有关搜狗搜索的代码),同样的代码改成搜狗的网址结果是这样的

在这里插入图片描述

我们发现其中有句话是 “ 网络中存在异常访问 ”,那么这句话是什么意思呢?

这句话的意思就是说,搜狗或是百度注意到发送请求的是爬虫程序,而不是人工操作。

那么这其中的原理又是什么呢?

简单来说,就是程序访问和我们使用浏览器访问是有区别的,被请求的服务器都是靠 user-agent 来判断访问者的身份,如果是浏览器就接受请求,否则就拒绝。这就是一个很常见的反爬机制。

那是不是我们就没有办法呢?

非也~所谓魔高一尺,道高一丈。既然要识别 user-agent ,那么我们就让爬虫模拟 user-agent 好了。

在 python 中模拟输入数据或是 user-agent ,我们一般用字典

就这样子写:

header = {
	"user-agent": "" # user-agent 的值 是一个长字符串
	}

那么 user-agent 的值又是怎么得到的呢?

1. 打开任意网页,右键点击,选择“检查”

2. 选择“ Network ”(谷歌浏览器)(如果是中文,就选择 “网络” 这一项)

在这里插入图片描述

3. 如果发现点开是空白的,像这样,那就刷新网页

在这里插入图片描述

刷新后是这样的:

在这里插入图片描述

然后随机选择红笔圈起来的一项,我们会看到这样的东西,然后在里面找到“user-agent”,把它的值复制下来就行了

在这里插入图片描述

有了 “user-agent”, 我们在重新写我们的爬取网页的代码,就可以了

import requests

if __name__ == "__main__":
    # 指定URL
    url = "https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=2&tn=93923645_hao_pg&wd=%E5%A5%A5%E7%89%B9%E6%9B%BC&rsv_spt=1&oq=%25E7%2588%25AC%25E5%258F%2596%25E7%2599%25BE%25E5%25BA%25A6%25E9%25A6%2596%25E9%25A1%25B5&rsv_pq=b233dcfd0002d2d8&rsv_t=ccdbEuqbJfqtjnkFvevj%2BfxQ0Sj2UP88ixXHTNUNsmTa9yWEWTUEgxTta9r%2Fj3mXxDs%2BT1SU&rqlang=cn&rsv_dl=tb&rsv_enter=1&rsv_sug3=8&rsv_sug1=5&rsv_sug7=100&rsv_sug2=0&rsv_btype=t&inputT=1424&rsv_sug4=1424"

    # 模拟 “user-agent”,即 UA伪装
    header = {
        "user-agent" : "" # 复制的 user-agent 的值
        }
    # 发送请求
    response = requests.get(url, headers = header)

    # 获取数据
    page_text = response.text

    # 存储
    with open("./奥特曼(UA伪装).html", "w", encoding = "utf-8") as fp:
        fp.write(page_text)

    print("爬取成功!!!")

再次运行,然后打开文件

在这里插入图片描述

这次成功了,说明我们的爬虫程序完美地骗过了服务器

到此这篇关于python爬虫基础之简易网页搜集器的文章就介绍到这了,更多相关python网页搜集器内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python处理命令行参数模块optpars用法实例分析

    Python处理命令行参数模块optpars用法实例分析

    这篇文章主要介绍了Python处理命令行参数模块optpars用法,结合实例形式分析了optpars模块的功能,Python使用optpars模块设置命令行参数相关操作技巧,需要的朋友可以参考下
    2018-05-05
  • python运用pygame库实现双人弹球小游戏

    python运用pygame库实现双人弹球小游戏

    这篇文章主要为大家详细介绍了python运用pygame库实现双人弹球小游戏,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2019-11-11
  • Python知识之列表的十个小技巧分享

    Python知识之列表的十个小技巧分享

    这篇文章主要介绍了Python知识之列表的十个小技巧分享,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2023-01-01
  • Python基础教程之输入输出和运算符

    Python基础教程之输入输出和运算符

    这篇文章主要给大家介绍了关于Python基础教程之输入输出和运算符的相关资料,文中通过示例代码介绍的非常详细,对大家的学习或者使用Python具有一定的参考学习价值,需要的朋友们下面来一起学习学习吧
    2020-07-07
  • Python Opencv实现最强美颜滤镜效果

    Python Opencv实现最强美颜滤镜效果

    这篇文章主要介绍了如何利用Python OpenCV制作一个强大的美颜滤镜效果,文中的示例代码讲解详细,感兴趣的小伙伴可以学习一下
    2022-03-03
  • python查看自己安装的所有库并导出的命令

    python查看自己安装的所有库并导出的命令

    这篇文章主要介绍了python查看自己安装的所有库并导出,主要包括查看安装的库通过命令查询,导出库安装文件执行命令,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-06-06
  • Python图像处理之图片文字识别功能(OCR)

    Python图像处理之图片文字识别功能(OCR)

    Tesseract 是一个OCR 库,目前由Google 赞助(Google 也是一家以OCR 和机器学习技术闻名于世的公司)。这篇文章主要介绍了Python图像处理之图片文字识别功能 OCR的相关知识,需要的朋友可以参考下
    2019-07-07
  • Django展示可视化图表的多种方式

    Django展示可视化图表的多种方式

    这篇文章主要介绍了Django展示可视化图表的多种方式,帮助大家更好的理解和学习使用django框架,感兴趣的朋友可以了解下
    2021-04-04
  • 使用python爬虫实现网络股票信息爬取的demo

    使用python爬虫实现网络股票信息爬取的demo

    下面小编就为大家分享一篇使用python爬虫实现网络股票信息爬取的demo,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-01-01
  • python爬虫 Pyppeteer使用方法解析

    python爬虫 Pyppeteer使用方法解析

    这篇文章主要介绍了python爬虫 Pyppeteer使用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-09-09

最新评论