Python实现IP代理批量采集的示例代码

 更新时间:2022年09月29日 10:16:46   作者:小圆-  
这篇文章主要为大家详细介绍了如何利用Python实现IP代理批量采集,并检测代理是否可用。文中的示例代码讲解详细,需要的可以参考一下

开发环境 

python 3.8

pycharm

模块使用 

import requests —> 需要安装 pip install requests

import parsel —> 需要安装 pip install parsel 解析数据模块

如果安装python第三方模块:

  • win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
  • 在pycharm中点击Terminal(终端) 输入安装命令

IP代理: 采集网站数据, 采集比较快, 你被封IP <一段时间内容 不能访问这个网站>

基本流程(思路)

一. 数据来源分析

你要先分析, 你想要数据是请求那个url地址可以得到…

通过开发者工具抓包分析, 分析我们想要数据来源

I. F12或者鼠标右键点检查 选择network 刷新网页

II. 分析数据内容 <IP 以及 端口>来自于哪里

通过开发者工具 关键字搜索数据来源 找到相对应的数据包

二. 代码实现步骤过程

爬虫基本四大步骤

发送请求, 模拟浏览器对于分析得到url地址发送请求 https://free.kuaidaili.com/free/inha/1/

获取数据, 获取服务器返回响应数据 —> 开发者工具里面看到 response

解析数据, 提取我们想要数据内容

保存数据, 我们想要数据内容保存本地

代码

# 导入数据请求模块 ---> 第三方模块, 需要安装 在cmd里面 pip install requests
import requests
# 导入数据解析模块 ---> 第三方模块, 需要安装 在cmd里面 pip install parsel
import parsel
# 导入json模块 ---> 内置模块 不需要安装
import json
# 1. 发送请求, 模拟浏览器对于分析得到url地址发送请求
proxies_list = []
proxies_list_1 = []
# 请求url地址
for page in range(1, 11):
    url = f'https://www.boc.cn/sourcedb/whpj/index_{page}.html'
    """
    headers请求头, 模拟伪装浏览器去发送请求
        不加headers相当于裸奔 ----> 告诉服务器, 我是爬虫 我是爬虫~ 你来抓我~
        加什么东西, 在哪加 ---> 开发者工具里面 复制 ua
    """
    headers = {
        # User-Agent 用户代理 表示浏览器基本身份标识
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
    }
    # 发送请求 ---> <Response [200]> 响应对象, 200状态码 表示请求成功
    response = requests.get(url=url, headers=headers)
    # 2. 获取数据, 获取服务器返回响应数据 print(response.text)
    """
    3. 解析数据, 提取我们想要数据内容
        解析方法:
            re正则: 对于字符串数据进行提取
            css: 根据标签属性内容提取
            xpath: 根据标签节点提取
    """
    # 转换数据类型 response.text<字符串数据>  <Selector xpath=None data='<html>\n<head>\n<meta http-equiv="X-UA-...'>
    selector = parsel.Selector(response.text)
    # 获取tr标签  ---> 返回列表 列表里面元素是 Selector对象
    trs = selector.css('#list table tbody tr')
    trs_1 = selector.xpath('//*[@id="list"]/table/tbody/tr')
    # for循环 一个一个提取tr标签
    for tr in trs:
        # 提取ip号 td:nth-child(1)::text 获取第一个td标签里面文本数据
        ip_num = tr.css('td:nth-child(1)::text').get()
        # ip_num_1 = tr.xpath('td[1]/text()').get()
        ip_port = tr.css('td:nth-child(2)::text').get()
        """
        IP代理结构是什么样子的?
         proxies_dict = {
                    "http": "http://" + ip:端口,
                    "https": "http://" + ip:端口,
                }
        """
        proxies_dict = {
            "http": "http://" + ip_num + ':' + ip_port,
            "https": "https://" + ip_num + ':' + ip_port,
        }
        proxies_list_1.append(proxies_dict)
        # 检测IP代理是否可用  用这个代理去请求一下网站就好了
        try:
            response_1 = requests.get(url='https://www.baidu.com/', proxies=proxies_dict, timeout=1)
            if response_1.status_code == 200:
                proxies_list.append(proxies_dict)
                print('代理可以使用: ', proxies_dict)
                # 保存代理到文本
                with open('代理.txt', mode='a', encoding='utf-8') as f:
                    f.write(json.dumps(proxies_dict))
                    f.write('\n')
        except:
            print('当前代理:', proxies_dict, '请求超时, 检测不合格')

print('===' * 50)
print('一共获取到:', len(proxies_list_1))
print('可以使用代理: ', len(proxies_list))
print(proxies_list)

到此这篇关于Python实现IP代理批量采集的示例代码的文章就介绍到这了,更多相关Python采集IP代理内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python实现滑块验证码详解

    Python实现滑块验证码详解

    验证码作为一种自然人的机器人的判别工具,被广泛的用于各种防止程序做自动化的场景中。传统的字符型验证安全性已经名存实亡的情况下,各种新型的验证码如雨后春笋般涌现,今天给大家分享一篇Python实现滑块验证码
    2022-05-05
  • python代理工具mitmproxy使用指南

    python代理工具mitmproxy使用指南

    这篇文章主要介绍了python mitmproxy 使用指南,mitmproxy 可以用来拦截、修改、保存 HTTP/HTTPS 请求。以命令行终端形式呈现,类似于 Chrome 浏览器开发者模式的可视化工具,需要的朋友可以参考下
    2019-07-07
  • Python运行异常管理解决方案

    Python运行异常管理解决方案

    这篇文章主要介绍了Python运行异常管理解决方案,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-03-03
  • python编程开发之textwrap文本样式处理技巧

    python编程开发之textwrap文本样式处理技巧

    这篇文章主要介绍了python编程开发之textwrap文本样式处理技巧,实例分析了Python中textwrap的常用方法与处理文本样式的相关使用技巧,需要的朋友可以参考下
    2015-11-11
  • python 爬虫一键爬取 淘宝天猫宝贝页面主图颜色图和详情图的教程

    python 爬虫一键爬取 淘宝天猫宝贝页面主图颜色图和详情图的教程

    今天小编就为大家分享一篇python 爬虫一键爬取 淘宝天猫宝贝页面主图颜色图和详情图的教程,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-05-05
  • Python任务调度利器之APScheduler详解

    Python任务调度利器之APScheduler详解

    所谓的任务调度是指安排任务的执行计划,即何时执行,怎么执行等。这篇文章主要介绍了Python任务调度利器之APScheduler详解,需要的朋友可以参考下
    2020-04-04
  • ubuntu22.04将python源切换为清华源的方法

    ubuntu22.04将python源切换为清华源的方法

    在使用pip命令安装python的一些库时,由于默认服务器在国外,因此下载需要很长时间,本文主要介绍了ubuntu22.04将python源切换为清华源的方法,感兴趣的可以了解一下
    2023-12-12
  • Python中的左斜杠、右斜杠(正斜杠和反斜杠)

    Python中的左斜杠、右斜杠(正斜杠和反斜杠)

    这篇文章主要介绍了Python中的左斜杠、右斜杠(正斜杠和反斜杠)的相关资料,非常不错,具有参考借鉴价值,需要的朋友可以参考下
    2016-08-08
  • 教你使用TensorFlow2识别验证码

    教你使用TensorFlow2识别验证码

    验证码是根据随机字符生成一幅图片,然后在图片中加入干扰象素,本文主要介绍了 TensorFlow2识别验证码,需要的朋友们下面随着小编来一起学习学习吧
    2021-06-06
  • python实现RabbitMQ的消息队列的示例代码

    python实现RabbitMQ的消息队列的示例代码

    这篇文章主要介绍了python实现RabbitMQ的消息队列的示例代码,总结了RabbitMQ中三种exchange模式的实现,分别是fanout, direct和topic。感兴趣的小伙伴们可以参考一下
    2018-11-11

最新评论