python爬虫之爬取百度翻译

 更新时间:2021年04月26日 10:33:45   作者:世界的隐喻  
这篇文章主要介绍了python爬虫之爬取百度翻译,文中有非常详细的代码示例,对正在学习python的小伙伴们哟哟非常好的帮助,需要的朋友可以参考下

破解百度翻译

翻译是一件麻烦的事情,如果可以写一个爬虫程序直接爬取百度翻译的翻译结果就好了,可当我打开百度翻译的页面,输入要翻译的词时突然发现不管我要翻译什么,网址都没有任何变化,那么百度翻译要怎么爬取呢?

爬取百度翻译之前,我们先要明白百度翻译是怎么在不改变网址的情况下实现翻译的。百度做到这一点是用 AJAX 实现的,简单地说,AJAX的作用是在不重新加载网页的情况下进行局部的刷新。

了解了这一点,那么我们要怎么得到 AJAX 工作时请求的URL呢?老规矩,使用抓包工具。

爬虫步骤

在 “百度翻译” 页面右键,选择“Notework”选择 “ XHR ”

在这里插入图片描述

如果画面没有任何数据,可以试着输入要翻译的词,比如说我输入“dog”时,就发生了如下的变化

在这里插入图片描述

我们看到此时的 kw 是我要翻译的词,说明这是我们要找的东西。

(注意:我们发现其中有三个 sug ,我选的只是其中一个。如果我们全都带点开看,就会发现,他们的 kw 分别是:d 和 do。这是因为我打 dog 时一个单词一个单词打的,而 AJAX 是时时刷新。如果输入中文就不会出现这种情况。翻译中文时,我们找的也不是 sug 了,具体是什么,就看哪个包的 data 的值是我们要翻译的词。)

然后我们在回到上面,找到我们需要指定的 URL 、我们要选择的请求命令以及爬取到的数据的类型。

在这里插入图片描述

欧克,做到这里我们的前期准备就完成了,下面就可以开始着手写代码了。

import requests

if __name__ == "__main__":
    # 指定 url
    url = "https://fanyi.baidu.com/sug"

    # 要翻译的词
    keyword = input("需要翻译的词:")

    data = {
        "kw": keyword
        }

    # UA 伪装
    header = {
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
        }

    # 发送请求
    response = requests.post(url = url, data = data, headers = header).json()

    print(response)

我们运行程序发现结果是这样的:

在这里插入图片描述

因为请求到的数据比较短,所以我们比较容易地看出数据的结构是字典里有列表,列表里又有字典结构。如果比较长,我们可以使用在线 json 转换,转换后的数据是这样的

在这里插入图片描述

我们只需要 dog 的释义,所以我们还可以对我们代码进行优化

print(response["data"][0]["v"])

注意

关于 data 的字典,并不是说只需要 “ kw ”: dog, data 的字典里要存储的是抓包工具里 from data 里所有的值,如果没有值,那么相对应的值就是空字符串。

如果学会了,你试着自己写一个破解有道翻译的爬虫程序吧!

到此这篇关于python爬虫之爬取百度翻译的文章就介绍到这了,更多相关python爬取百度翻译内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python处理圆角图片、圆形图片的例子

    python处理圆角图片、圆形图片的例子

    最近因为工作需要,需要处理图片,一种是头像的方形图片处理成圆行的,一种是方形图片的4角变得椭圆点
    2014-04-04
  • PyTorch模型创建与nn.Module构建

    PyTorch模型创建与nn.Module构建

    这篇文章主要为大家介绍了PyTorch模型创建与nn.Module构建示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-07-07
  • Python中使用第三方库xlutils来追加写入Excel文件示例

    Python中使用第三方库xlutils来追加写入Excel文件示例

    这篇文章主要介绍了Python中使用第三方库xlutils来追加写入Excel文件示例,本文直接给出追加写入示例和追加效果,需要的朋友可以参考下
    2015-04-04
  • 4个的Python自动化脚本分享

    4个的Python自动化脚本分享

    这篇文章主要给大家分享了4个的Python自动化脚本,自动化脚本无需手动一次又一次地完成这些任务,非常方便,下面我能就一起进入文章来来了解实现吧,希望对你有所帮助
    2021-12-12
  • matplotlib之pyplot模块之标题(title()和suptitle())

    matplotlib之pyplot模块之标题(title()和suptitle())

    这篇文章主要介绍了matplotlib之pyplot模块之标题(title()和suptitle()),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2021-02-02
  • python selenium循环登陆网站的实现

    python selenium循环登陆网站的实现

    这篇文章主要介绍了python selenium循环登陆网站的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-11-11
  • python内置数据类型之列表操作

    python内置数据类型之列表操作

    数据类型是一种值的集合以及定义在这种值上的一组操作。这篇文章主要介绍了python内置数据类型之列表的相关知识,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
    2018-11-11
  • 详解如何为eclipse安装合适版本的python插件pydev

    详解如何为eclipse安装合适版本的python插件pydev

    这篇文章主要介绍了详解如何为eclipse安装合适版本的python插件pydev,pydev是一款优秀的Eclipse插件,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-11-11
  • 详解Python如何实现批量为PDF添加水印

    详解Python如何实现批量为PDF添加水印

    我们有时候需要把一些机密文件发给多个客户,为了避免客户泄露文件,会在机密文件中添加水印。本文将利用Python实现批量为PDF添加水印,需要的可以参考一下
    2022-05-05
  • 使用Selenium实现微博爬虫(预登录、展开全文、翻页)

    使用Selenium实现微博爬虫(预登录、展开全文、翻页)

    这篇文章主要介绍了使用Selenium实现微博爬虫(预登录、展开全文、翻页),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2021-04-04

最新评论