Python HTTP库 requests 的简单使用详情

 更新时间:2021年09月29日 11:15:45   作者:tigeriaf  
requests是Python的一个HTTP客户端库,基于urllib标准库,在urllib标准库的基础上做了高度封装,因此更加简洁好用,下面就由小编来给大家详细介绍吧,需要的朋友可以参考下

requests库实现了HTTP协议中绝大部分功能,提供了Keep-Alive、连接池、Cookie持久化、HTTP(S)代理支持、连接超时等很多功能特性,最重要的是它同时支持Python2和ython3,而且能在PyPy下完美运行。

使用前需要使用pip install requests命令进行安装。

1、简单使用

res = requests.get("http://httpbin.org/get")
# 状态码
print(res.status_code)
# 响应头
print(res.headers["Content-Type"], res.headers["Server"])
# 响应内容
print(res.text)

执行结果如下:

200
application/json gunicorn/19.9.0
{
  "args": {},
  "headers": {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate",
    .......
  },
  "origin": "xxx.xxx.xx.xx", 
  "url": http://httpbin.org/get
}

另外,http请求还有很多类型,比如POST、PUT、DELETE、HEAD、OPTIONS。requests也都可以以简单的方式实现。

res = requests.post("http://httpbin.org/post")
res = requests.put("http://httpbin.org/put")
res = requests.delete("http://httpbin.org/delete")
res = requests.head("http://httpbin.org/get")
res = requests.options("http://httpbin.org/get")

由此看来,使用requests库确实简单方便。

2、构建请求查询参数

很多请求都需要在URL中传递参数,我们可以用字典来构建查询参数,使用params参数在URL中添加参数。

payload = {"wd": "test"}
res = requests.get("https://www.baidu.com/", params=payload)
print(res.url)

运行结果如下:

https://www.baidu.com/?wd=test

3、构建请求头Headers

requests可以在请求中很简单的指定请求头的Headers信息,直接传递一个字典给参数headers即可。

headers = {"user-agent": "Mozilla/5.0", "cookies": "xxx"}
res = requests.get("https://www.baidu.com/", headers=headers)

4、构建POST请求数据

requests可以非常方便的构建POST请求需要的数据。如果服务端接收的的数据是表单数据,可以使用参数data上送,如果接收的是json格式的数据,则可以使用json参数上送。

4.1 表单数据

import requests

data = {"key1": "value1", "key2": "value2"}
res = requests.post("http://httpbin.org/post", data=data)
print(res.text)

运行结果如下:

{
  "args": {},
  "data": "",
  "files": {},
  "form": {
    "key1": "value1",
    "key2": "value2"
  },
  "headers": {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate",
    "Content-Length": "23",
    "Content-Type": "application/x-www-form-urlencoded",
    "Host": "httpbin.org",
    "User-Agent": "python-requests/2.26.0",
    "X-Amzn-Trace-Id": "Root=1-614d7d91-559333ee19237f845026ef37"
  },
  "json": null,
  "origin": "xxx.xxx.xx.xx",
  "url": "http://httpbin.org/post"
}

4.2 json数据

import json
import requests

url = "http://httpbin.org/post"
data = {"key": "value"}
data = json.dumps(data)
res = requests.post(url, data=data)
print(res.text)

运行结果如下:

{
  "args": {},
  "data": "{\"key\": \"value\"}",
  "files": {},
  "form": {},
  "headers": {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate",
    "Content-Length": "16",
    "Host": "httpbin.org",
    "User-Agent": "python-requests/2.26.0",
    "X-Amzn-Trace-Id": "Root=1-614d7e91-065887f925dce94d6d03b2e4"
  },
  "json": {
    "key": "value"
  },
  "origin": "xxx.xxx.xx.xx",
  "url": "http://httpbin.org/post"
}

5、获取响应内容

使用requests请求处理响应体也非常方便灵活,可以使用的属性有contenttextjson()

content属性获取的是byte类型的数据。

import requests


res = requests.get("http://httpbin.org/get")
print(res.content)

text属性获取的是str类型的数据。

import requests


res = requests.get("http://httpbin.org/get")
print(res.text)

如果返回的内容是json格式的数据时,就可以使用json()方法返回一个经过json.loads()处理后的对象。

import requests

url = "http://httpbin.org/post"
res = requests.post(url)
print(res.json())

6、Cookies

如果响应中包含了cookie信息,我们可以使用cookies属性获取。

res = requests.get("http://httpbin.org/get")
print(res.cookies)

另外还可以使用cookies参数向服务端发送cookies信息。

url = "http://httpbin.org/cookies"
cookies = {"cookies": "xxxxx"}
r = requests.get(url, cookies=cookies)
print(r.text)

7、超时配置

可以利用timeout参数来配置最大请求时间。

requests.get("https://baidu.com", timeout=0.01)

8、代理

如果需要使用代理,我们可以通过proxies参数来配置。

import requests

proxies = {
  'http': 'http://175.7.199.202:3256',
  'https': 'http://175.7.199.59:3256',
}

requests.get('http://httpbin.org/get', proxies=proxies)

总结:

到此这篇关于Python HTTP库 requests 的简单使用详情的文章就介绍到这了,更多相关Python HTTP库 requests 的简单使用内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Pytorch中实现只导入部分模型参数的方式

    Pytorch中实现只导入部分模型参数的方式

    今天小编就为大家分享一篇Pytorch中实现只导入部分模型参数的方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-01-01
  • python网络爬虫之协程的实现方法

    python网络爬虫之协程的实现方法

    这篇文章主要介绍了python网络爬虫之协程的实现方法,协程Coroutine又称微线程,是一种用户态内的上下文切换技术,简而言之,就是通过一个线程实现代码块相互切换执行,需要的朋友可以参考下
    2023-08-08
  • python引用DLL文件的方法

    python引用DLL文件的方法

    这篇文章主要介绍了python引用DLL文件的方法,涉及Python调用dll文件的相关技巧,需要的朋友可以参考下
    2015-05-05
  • Python中re.findall()用法详解

    Python中re.findall()用法详解

    本文主要介绍了Python中re.findall()用法详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2022-07-07
  • python实现水印图片功能

    python实现水印图片功能

    这篇文章主要为大家详细介绍了python实现水印图片功能,文中示例代码介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2022-05-05
  • python根据京东商品url获取产品价格

    python根据京东商品url获取产品价格

    闲着没事尝试抓一下京东的数据,需要使用到的库有:BeautifulSoup,urllib2,在Python2下测试通过
    2015-08-08
  • Python抓取通过Ajax加载数据的示例

    Python抓取通过Ajax加载数据的示例

    在网页上,有一些内容是通过执行Ajax请求动态加载数据渲染出来的,本文主要介绍了使用Python抓取通过Ajax加载数据,感兴趣的可以了解一下
    2023-05-05
  • Python之两种模式的生产者消费者模型详解

    Python之两种模式的生产者消费者模型详解

    今天小编就为大家分享一篇Python之两种模式的生产者消费者模型详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-10-10
  • Windows下PyCharm2018.3.2 安装教程(图文详解)

    Windows下PyCharm2018.3.2 安装教程(图文详解)

    这篇文章主要介绍了Windows下PyCharm2018.3.2 安装教程,本文图文并茂给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2019-10-10
  • 教你用Python查看茅台股票交易数据的详细代码

    教你用Python查看茅台股票交易数据的详细代码

    CSV是以逗号分隔数据项(也被称为字段)的数据交换格式,主要应用于电子表格和数据库之间的数据交换,本文给大家介绍下用Python查看茅台股票交易数据的详细代码,感兴趣的朋友一起看看吧
    2022-03-03

最新评论