Python爬虫实现搭建代理ip池

 更新时间:2022年06月21日 17:06:15   作者:清&轻  
这篇文章主要介绍了Python爬虫实现搭建代理ip池,文章围绕主题展开详细的内容介绍,具有一定的参考价值,需要的小伙伴可以参考一下,希望对你的工作有所帮助

前言

在使用爬虫的时候,很多网站都有一定的反爬措施,甚至在爬取大量的数据或者频繁地访问该网站多次时还可能面临ip被禁,所以这个时候我们通常就可以找一些代理ip来继续爬虫测试。

下面就开始来简单地介绍一下爬取免费的代理ip来搭建自己的代理ip池:本次爬取免费ip代理的网址:http://www.ip3366.net/free/

提示:以下是本篇文章正文内容,下面案例可供参考

一、User-Agent

在发送请求的时候,通常都会做一个简单的反爬。这时可以用fake_useragent模块来设置一个请求头,用来进行伪装成浏览器,下面两种方法都可以。

from fake_useragent import UserAgent
headers = {
        # 'User-Agent': UserAgent().random #常见浏览器的请求头伪装(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌浏览器
    }

在这里插入图片描述

二、发送请求

response = requests.get(url='http://www.ip3366.net/free/', headers=request_header())
        # text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))

三、解析数据

我们只需要解析出ip、port即可。

在这里插入图片描述

在这里插入图片描述

使用xpath解析(个人很喜欢用)(当然还有很多的解析方法,如:正则,css选择器,BeautifulSoup等等)。

	#使用xpath解析,提取出数据ip,端口
        html = etree.HTML(response.text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000

四、构建ip代理池,检测ip是否可用

#构建代理ip
	proxy = ip + ':' + port
	proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #设置timeout,使响应等待1s
        response.close()
        if response.status_code == 200:
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'请求异常')

五、完整代码

import requests                         #导入模块
from lxml import etree
from fake_useragent import UserAgent
#简单的反爬,设置一个请求头来伪装成浏览器
def request_header():
    headers = {
        # 'User-Agent': UserAgent().random #常见浏览器的请求头伪装(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌浏览器
    }
    return headers
'''
创建两个列表用来存放代理ip
'''
all_ip_list = []  #用于存放从网站上抓取到的ip
usable_ip_list = [] #用于存放通过检测ip后是否可以使用

#发送请求,获得响应
def send_request():
    #爬取7页,可自行修改
    for i in range(1,8): 
        print(f'正在抓取第{i}页……')
        response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header())
        text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))
        #使用xpath解析,提取出数据ip,端口
        html = etree.HTML(text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000
            all_ip_list.append(proxy)
            test_ip(proxy)      #开始检测获取到的ip是否可以使用
    print('抓取完成!')
    print(f'抓取到的ip个数为:{len(all_ip_list)}')
    print(f'可以使用的ip个数为:{len(usable_ip_list)}')
    print('分别有:\n', usable_ip_list)
#检测ip是否可以使用
def test_ip(proxy):
    #构建代理ip
    proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #设置timeout,使响应等待1s
        response.close()
        if response.status_code == 200:
            usable_ip_list.append(proxy)
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'请求异常')
if __name__ == '__main__':
    send_request()

总结

到此这篇关于Python爬虫实现搭建代理ip池的文章就介绍到这了,更多相关Python代理ip池内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python对视频画框标记后保存的方法

    python对视频画框标记后保存的方法

    今天小编就为大家分享一篇python对视频画框标记后保存的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • Python链表排序相关问题解法示例

    Python链表排序相关问题解法示例

    这篇文章主要为大家介绍了Python链表排序相关问题解法示例,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2024-01-01
  • python语言中pandas字符串分割str.split()函数

    python语言中pandas字符串分割str.split()函数

    分列在我们日常工作中经常用到,从各种系统中导出的什么订单号、名称、日期很多都是复合组成的,这些列在匹配、合并时没有办法使用,我们经常需要将她们分开,下面这篇文章主要给大家介绍了关于python语言中pandas字符串分割str.split()函数的相关资料,需要的朋友可以参考下
    2022-08-08
  • Flask如何获取用户的ip,查询用户的登录次数,并且封ip

    Flask如何获取用户的ip,查询用户的登录次数,并且封ip

    这篇文章主要介绍了Flask如何获取用户的ip,查询用户的登录次数,并且封ip问题,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2023-01-01
  • Python脚本操作Excel实现批量替换功能

    Python脚本操作Excel实现批量替换功能

    这篇文章主要介绍了Python脚本操作Excel实现批量替换功能,本文使用的是Openpyxl工具,通过实例截图给大家讲解的非常详细,需要的朋友可以参考下
    2019-11-11
  • 一步步教你用python连接oracle数据库

    一步步教你用python连接oracle数据库

    oracle作为最强大的数据库,Python也提供了足够的支持。不过与其他数据库略有不同,下面这篇文章主要给大家介绍了关于如何使用python连接oracle数据库的相关资料,需要的朋友可以参考下
    2023-04-04
  • 使用Flask创建简单的图片上传站点的流程步骤

    使用Flask创建简单的图片上传站点的流程步骤

    在网络应用程序中,实现图片上传功能是一项常见的需求,Flask框架提供了简单而灵活的工具,使得构建这样的功能变得相对简单,本文将介绍如何使用Flask框架创建一个简单的图片上传站点,以及其中涉及的关键技术和步骤,需要的朋友可以参考下
    2024-05-05
  • 实例讲解Python中整数的最大值输出

    实例讲解Python中整数的最大值输出

    在本篇文章里小编给大家分享了关于Python中整数的最大值输出的实例内容,以及相关知识点,需要的朋友们学习下。
    2019-03-03
  • Python使用BeautifulSoup爬取网页数据的操作步骤

    Python使用BeautifulSoup爬取网页数据的操作步骤

    在网络时代,数据是最宝贵的资源之一,而爬虫技术就是一种获取数据的重要手段,Python 作为一门高效、易学、易用的编程语言,自然成为了爬虫技术的首选语言之一,本文将介绍如何使用 BeautifulSoup 爬取网页数据,并提供详细的代码和注释,帮助读者快速上手
    2023-11-11
  • 适合Python项目的五大SQL连接器

    适合Python项目的五大SQL连接器

    这篇文章,将要介绍当前流行的、适合大多数Python程序员的、五大Python SQL数据库连接器,并讨论它们安装和各种的优缺点。需要的喷朋友可以参考下面文章的具体内容
    2021-09-09

最新评论