python爬虫设置每个代理ip的简单方法

 更新时间:2021年08月20日 08:49:13   作者:饮醉不止马匹  
在本篇文章里小编给大家整理了一篇关于python爬虫设置每个代理ip的简单方法,有兴趣的朋友们可以学习参考下。

python爬虫设置每个代理ip的方法:

1.添加一段代码,设置代理,每隔一段时间换一个代理。

urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。假如一个网站它会检测某一段时间某个 IP 的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理,网站君都不知道是谁在捣鬼了,这酸爽! 下面一段代码说明了代理的设置用法。

import urllib2
enable_proxy = True
proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
null_proxy_handler = urllib2.ProxyHandler({})
if enable_proxy:
    opener = urllib2.build_opener(proxy_handler)
else:
    opener = urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)

2.Timeout 设置,可以解决一些网站出现响应过慢而造成的影响问题。

之前已经说过urlopen 方法了,第三个参数就是 timeout 的设置,可以设置等待多久超时,为了解决一些网站实在响应过慢而造成的影响。 例如下面的代码,如果第二个参数 data 为空那么要特别指定是 timeout 是多少,写明形参,如果 data 已经传入,则不必声明。

import urllib2
response = urllib2.urlopen('http://www.baidu.com', timeout=10)
import urllib2
response = urllib2.urlopen('http://www.baidu.com',data, 10)

以上就是Python爬虫中设置代理的方法。结尾的时候我们补充了timeout的用法,本意是希望可以让大家需要网络过慢问题能有好的解决出路。

不过,地址代理方面用的较为多,所以要着重学习。如果需要用的ip可以试试太阳http,爬虫采集、营销推广、工作室等行业首选的IP产品,全国城市线路数量200+,API调用频率不限制,不限并发,24小时不断更新IP池。

知识点扩展:

代码扩展:

from bs4 import BeautifulSoup
import requests
import random

def get_ip_list(url, headers):
 web_data = requests.get(url, headers=headers)
 soup = BeautifulSoup(web_data.text, 'lxml')
 ips = soup.find_all('tr')
 ip_list = []
 for i in range(1, len(ips)):
  ip_info = ips[i]
  tds = ip_info.find_all('td')
  ip_list.append(tds[1].text + ':' + tds[2].text)
 return ip_list

def get_random_ip(ip_list):
 proxy_list = []
 for ip in ip_list:
  proxy_list.append('http://' + ip)
 proxy_ip = random.choice(proxy_list)
 proxies = {'http': proxy_ip}
 return proxies

if __name__ == '__main__':
 url = 'http://www.xicidaili.com/nn/'
 headers = {
 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.17 (KHTML, like Gecko) Chrome/24.0.1312.60 Safari/537.17'
 }
 ip_list = get_ip_list(url, headers=headers)
 proxies = get_random_ip(ip_list)
 print(proxies)

到此这篇关于python爬虫设置每个代理ip的简单方法的文章就介绍到这了,更多相关python爬虫如何设置每个代理ip内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • 使用pytorch进行图像的顺序读取方法

    使用pytorch进行图像的顺序读取方法

    今天小编就为大家分享一篇使用pytorch进行图像的顺序读取方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-07-07
  • python之线程通过信号pyqtSignal刷新ui的方法

    python之线程通过信号pyqtSignal刷新ui的方法

    今天小编就为大家分享一篇python之线程通过信号pyqtSignal刷新ui的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-01-01
  • Python命令行参数化的四种方式详解

    Python命令行参数化的四种方式详解

    在日常编写 Python 脚本的过程中,我们经常需要结合命令行参数传入一些变量参数,使项目使用更加的灵活方便。本文章罗列了构建 Python命令行参数的4种常见方式,需要的可以参考一下
    2022-06-06
  • Python全景系列之控制流程盘点及进阶技巧

    Python全景系列之控制流程盘点及进阶技巧

    这篇文章主要为大家介绍了Python全景系列之控制流程盘点及进阶技巧详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-05-05
  • python中NumPy的安装与基本操作

    python中NumPy的安装与基本操作

    Python虽然也提供了array模块,但其只支持一维数组,不支持多维数组,也没有各种运算函数,因而不适合数值运算,NumPy的出现弥补了这些不足,这篇文章主要给大家介绍了关于python中NumPy的安装与基本操作的相关资料,需要的朋友可以参考下
    2022-03-03
  • Xadmin+rules实现多选行权限方式(级联效果)

    Xadmin+rules实现多选行权限方式(级联效果)

    这篇文章主要介绍了Xadmin+rules实现多选行权限方式(级联效果),具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-04-04
  • Python selenium如何打包静态网页并下载

    Python selenium如何打包静态网页并下载

    这篇文章主要介绍了Python selenium如何打包静态网页并下载,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-08-08
  • Python cookbook(数据结构与算法)将多个映射合并为单个映射的方法

    Python cookbook(数据结构与算法)将多个映射合并为单个映射的方法

    这篇文章主要介绍了Python cookbook(数据结构与算法)将多个映射合并为单个映射的方法,结合实例形式分析了Python字典映射合并操作相关实现技巧,需要的朋友可以参考下
    2018-04-04
  • 基于Python实现简易文档格式转换器

    基于Python实现简易文档格式转换器

    这篇文章主要介绍了基于Python和PyQT5实现简易的文档格式转换器,支持.txt/.xlsx/.csv格式的转换。感兴趣的小伙伴可以跟随小编一起学习一下
    2021-12-12
  • 使用Python实现发送邮件的常用方法小结

    使用Python实现发送邮件的常用方法小结

    在日常工作中,我们可能经常会用到发送邮件,但如果每次都人工来发送,那岂不是很麻烦,今天我们就来讲解下如何通过python语言来优雅地发送邮件
    2024-04-04

最新评论