Python爬虫实现百度翻译功能过程详解
更新时间:2020年05月29日 10:18:09 作者:javascript痴痴
这篇文章主要介绍了Python爬虫实现百度翻译功能过程详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
首先,需要简单的了解一下爬虫,尽可能简单快速的上手,其次,需要了解的是百度的API的接口,搞定这个之后,最后,按照官方给出的demo,然后写自己的一个小程序
打开浏览器 F12 打开百度翻译网页源代码:

我们可以轻松的找到百度翻译的请求接口为:http://fanyi.baidu.com/sug

然后我们可以从方法为POST的请求中找到参数为:kw:job(job是输入翻译的内容)


下面是代码部分:
from urllib import request,parse
import json
def translate(content):
url = "http://fanyi.baidu.com/sug"
data = parse.urlencode({"kw":content}) # 将参数进行转码
headers = {
'User-Agent': 'Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10'
}
req = request.Request(url,data=bytes(data,encoding="utf-8"),headers=headers)
r = request.urlopen(req)
# print(r.code) 查看返回的状态码
html = r.read().decode('utf-8')
# json格式化
html = json.loads(html)
# print(html)
for k in html["data"]:
print(k["k"],k["v"])
if __name__ == '__main__':
content = input("请输入您要翻译的内容:")
translate(content)
结果如下

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
相关文章
pytorch实现特殊的Module--Sqeuential三种写法
今天小编就为大家分享一篇pytorch实现特殊的Module--Sqeuential三种写法。具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧2020-01-01
python基于xml parse实现解析cdatasection数据
这篇文章主要介绍了python基于xml parse实现解析cdatasection数据的方法,是非常实用技巧,需要的朋友可以参考下2014-09-09
详解在python中如何使用zlib模块进行数据压缩和解压缩
Python有一些内置库用于处理数据压缩和解压缩,其中一个就是zlib模块,这个模块为DEFLATE压缩算法和相关的gzip(文件格式)提供了支持,在这篇文章中,我们将深入探讨如何使用zlib模块进行数据压缩和解压缩2023-06-06
Python中使用logging模块代替print(logging简明指南)
这篇文章主要介绍了Python中使用logging模块代替print的好处说明,主旨是logging模块简明指南,logging模块的使用方法介绍,需要的朋友可以参考下2014-07-07


最新评论