Python实现提取给定网页内的所有链接

 更新时间:2023年05月18日 10:42:53   作者:海拥  
这篇文章主要和大家分享一个实用的Python脚本,可以实现从给定的网页中检索所有链接,并将其保存为txt文件,需要的小伙伴可以收藏一下

此脚本从给定的网页中检索所有链接,并将其保存为txt文件。(文末有完整源码)

这是一个简单的网络爬虫示例,使用了 requests 库来发送 HTTP 请求并获取网页内容,使用 BeautifulSoup 库来解析网页内容。

代码解释如下:

1.导入所需的库

导入 requests 库并将其重命名为 rq,用于发送 HTTP 请求和获取网页内容。

import requests as rq

从 bs4 库导入 BeautifulSoup 类,用于解析 HTML 内容。

from bs4 import BeautifulSoup

2.获取用户输入的链接

提示用户输入一个链接,并将其保存在 url 变量中。

url = input("Enter Link: ")

3.发送 HTTP 请求获取网页内容

  • 使用条件语句判断用户输入的链接是否以 "https" 或 "http" 开头。
  • 如果是,则使用 rq.get(url) 发送 GET 请求获取网页内容,并将响应保存在 data 变量中。
  • 如果不是,则在链接前添加 "https://" 并使用 rq.get() 发送请求,将响应保存在 data 变量中。

4.使用 BeautifulSoup 解析网页内容

将 data.text(网页内容)传递给 BeautifulSoup 类的构造函数,指定解析器为 "html.parser",创建一个 BeautifulSoup 对象 soup。

soup = BeautifulSoup(data.text, "html.parser")

5.提取链接

  • 创建一个空列表 links 用于存储提取的链接。
  • 使用 soup.find_all("a") 查找网页中所有的 <a> 标签,并返回一个包含这些标签的列表。
  • 遍历列表中的每个标签,使用 link.get("href") 获取每个标签中的 "href" 属性值,并将其添加到 links 列表中。

6.将提取的链接写入文件

  • 使用 with open("myLinks.txt", 'a') as saved: 打开一个文件 "myLinks.txt",以追加模式。
  • 使用 print(links[:100], file=saved) 将 links 列表中的前 100 个链接写入文件中,每个链接占一行。
  • 如果需要每次覆盖文件内容而不是追加,可以将文件打开模式由 'a' 改为 'w'。

这段代码的功能是获取用户输入的链接对应网页中的前 100 个链接,并将这些链接写入到名为 "myLinks.txt" 的文件中。

运行截图

附完整代码

import requests as rq
from bs4 import BeautifulSoup

url = input("Enter Link: ")
if ("https" or "http") in url:
    data = rq.get(url)
else:
    data = rq.get("https://" + url)
soup = BeautifulSoup(data.text, "html.parser")
links = []
for link in soup.find_all("a"):
    links.append(link.get("href"))

# 将输出写入文件(myLinks.txt)
# 可以将“a”更改为“w”以每次覆盖文件
with open("myLinks.txt", 'a') as saved:
    print(links[:10], file=saved)

到此这篇关于Python实现提取给定网页内的所有链接的文章就介绍到这了,更多相关Python提取网页链接内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • 解决python中无法自动补全代码的问题

    解决python中无法自动补全代码的问题

    今天小编就为大家分享一篇解决python中无法自动补全代码的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • 运动检测ViBe算法python实现代码

    运动检测ViBe算法python实现代码

    这篇文章主要为大家详细介绍了运动检测ViBe算法python实现代码,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2018-01-01
  • python进行数据预处理的4个重要步骤

    python进行数据预处理的4个重要步骤

    在数据科学项目中,数据预处理是最重要的事情之一,本文详细给大家介绍python进行数据预处理的4个重要步骤:拆分训练集和测试集,处理缺失值,处理分类特征和进行标准化处理,需要的朋友可以参考下
    2023-06-06
  • Python实现发票自动校核微信机器人的方法

    Python实现发票自动校核微信机器人的方法

    这篇文章主要介绍了Python实现发票自动校核微信机器人的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-05-05
  • Python中Scrapy框架的入门教程分享

    Python中Scrapy框架的入门教程分享

    Scrapy是一个基于Python的Web爬虫框架,可以快速方便地从互联网上获取数据并进行处理。本教程将介绍如何使用Scrapy框架来编写一个简单的爬虫,从而让您了解Scrapy框架的基本使用方法
    2023-03-03
  • Python中返回字典键的值的values()方法使用

    Python中返回字典键的值的values()方法使用

    这篇文章主要介绍了Python中返回字典键的值的values()方法使用,是Python入门学习中的基础知识,需要的朋友可以参考下
    2015-05-05
  • python画双y轴图像的示例代码

    python画双y轴图像的示例代码

    今天小编就为大家分享一篇python画双y轴图像的示例代码,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-07-07
  • Django静态资源URL STATIC_ROOT的配置方法

    Django静态资源URL STATIC_ROOT的配置方法

    这篇文章主要介绍了Django静态资源URL STATIC_ROOT的配置方法,本文给出配置方法和两种使用方法,需要的朋友可以参考下
    2014-11-11
  • Python实现基本Socket服务端与客户端通信的完整代码

    Python实现基本Socket服务端与客户端通信的完整代码

    这篇文章主要介绍了Python实现基本Socket服务端与客户端通信,分步详解与完整代码都有,按需所求即可,对Python Socket服务端与客户端通信相关知识感兴趣的朋友一起看看吧
    2023-06-06
  • python给list排序的简单方法

    python给list排序的简单方法

    在本篇文章里小编给大家整理的是一篇关于python给list排序的简单方法,有需要的朋友们可以学习参考下。
    2020-12-12

最新评论