Python数据解析之BeautifulSoup4的用法详解

 更新时间:2023年06月27日 08:35:29   作者:素年凉音  
Beautiful Soup 是一个可以从 HTML 或 XML 文件中提取数据的 Python 库,这篇文章主要来和大家介绍一下BeautifulSoup4的用法,需要的可以参考一下

BeautifulSoup 是什么

Beautiful Soup 是一个可以从 HTML 或 XML 文件中提取数据的 Python 库。,最主要的功能是从网页抓取数据。能够通过自己喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。

注:BeautifulSoup3目前已经停止开发,官网推荐在现在的项目中使用BeautifulSoup4

bs4的安装

可以在 Pycharm 中,输入以下语句:然后可根据提示进行安装。

from bs4 import BeautifulSoup

注意:bs4 是依赖 lxml 库的,只有先安装 lxml 库才可以安装bs4库*

文档解析器优缺点

推荐使用 lxml 作为解析器,因为效率更高。

bs4 的使用

  • 导入解析包;
  • 创建 beautifulsoup 解析对象;
  • 打印对应内容即可;

代码实例:

from bs4 import BeautifulSoup
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
# 创建一个 soup 对象
soup = BeautifulSoup(html_doc, 'lxml')
print(soup, type(soup))  # <class 'bs4.BeautifulSoup'>
# 格式化文档输出
print(soup.prettify())
# 获取 title 标签的名称 title
print(soup.title.name)  # title
# 获取 title 标签内容
print(soup.title)  # <title>The Dormouse's story</title>
# title 标签里面的文本内容
print(soup.title.string)
# 获取 p 段落
print(soup.p)

bs4的对象种类

  • tag : html中的标签。可以通过 BeautifulSoup 分析 Tag 的具体内容,具体格式为:soup.name,其中 name 是html 下的标签。
  • NavigableString : 标签中的文本对象。
  • BeautifulSoup : 整个html文本对象,可以作为Tag对象。
  • Comment:特殊的 NavigableString 对象,如果 html标签中有注释,则可过滤注释符号并保留注释文本。

代码实例

from bs4 import BeautifulSoup
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
"""
tag:标签
NavigableString:可导航的字符串,标签中的文本对象
beautifulSoup:bs对象,整个 html 文本对象
Comment:注释,如果 html 标签中有注释,则可过滤注释符号并保留注释文本
"""
# html_doc 表示要解析的文档,而 html.parser 表示解析文档时所用的解析器
soup = BeautifulSoup(html_doc, 'html.parser')
print(soup)
""" tag:标签"""
print(type(soup.title))
print(type(soup.p))
print(type(soup.a))
""" NavigableString,可导航的字符串"""
from bs4.element import NavigableString
print(type(soup.title.string))   # 标签下的文本数据
"""beautifulSoup,bs对象"""
print(type(soup))
""" Comment:注释"""
html = "<b><!--好好学习,天天向上--></b>"
soup2 = BeautifulSoup(html, 'html.parser')
print(soup2.b.string, type(soup2.b.string))

遍历文档树

遍历子节点

  • contents 返回的是一个所有子节点的列表(了解)
  • children 返回的是一个子节点的迭代器(了解)
  • descendants 返回的是一个生成器遍历子子孙孙(了解)
  • string 获取标签里面的内容(掌握)
  • strings 返回是一个生成器对象用过来获取多个标签内容(掌握)
  • stripped_strings 和strings 基本一致 但是它可以把多余的空格去掉(掌握)

遍历父节点

  • parent 直接获得父节点
  • parents 获取所有的父节点

遍历兄弟节点

  • next_sibling,下一个兄弟结点
  • previous_sibling,上一个兄弟结点
  • next_siblings,下一个所有兄弟结点
  • previous_siblings,上一个所有兄弟结点

代码实例

from bs4 import BeautifulSoup
html_doc = """
<html>
<head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">
Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
</body>
</html>
"""
soup = BeautifulSoup(html_doc, 'lxml')
r1 = soup.title.string  # 获取单个标签里面的内容  The Dormouse's story
# 获取html中所有的标签中的内容
r2 = soup.html.strings  # 返回是一个生成 generator对象,用过来获取多个标签内容
for i in r2:
    print(i)
r3 = soup.html.stripped_strings  # 获取html中所有的标签中的内容,并去掉多余的空格
for i in r3:
    print("---", i)

搜索文档树

  • find():返回搜索到的第一条数据;
  • find_all():以列表形式返回所有的搜索到的标签数据;

代码实例

from bs4 import BeautifulSoup
html = """
<table class="tablelist" cellpadding="0" cellspacing="0">
    <tbody>
        <tr class="h">
            <td class="l" width="374">职位名称</td>
            <td>职位类别</td>
            <td>人数</td>
            <td>地点</td>
            <td>发布时间</td>
        </tr>
        <tr class="even">
            <td class="l square"><a target="_blank" href="position_detail.php?id=33824&keywords=python&tid=87&lid=2218">22989-金融云区块链高级研发工程师(深圳)</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-25</td>
        </tr>
        <tr class="odd">
            <td class="l square"><a target="_blank" href="position_detail.php?id=29938&keywords=python&tid=87&lid=2218">22989-金融云高级后台开发</a></td>
            <td>技术类</td>
            <td>2</td>
            <td>深圳</td>
            <td>2017-11-25</td>
        </tr>
        <tr class="even">
            <td class="l square"><a target="_blank" href="position_detail.php?id=31236&keywords=python&tid=87&lid=2218">SNG16-腾讯音乐运营开发工程师(深圳)</a></td>
            <td>技术类</td>
            <td>2</td>
            <td>深圳</td>
            <td>2017-11-25</td>
        </tr>
        <tr class="odd">
            <td class="l square"><a target="_blank" href="position_detail.php?id=31235&keywords=python&tid=87&lid=2218">SNG16-腾讯音乐业务运维工程师(深圳)</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-25</td>
        </tr>
        <tr class="even">
            <td class="l square"><a target="_blank" href="position_detail.php?id=34531&keywords=python&tid=87&lid=2218">TEG03-高级研发工程师(深圳)</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
        <tr class="odd">
            <td class="l square"><a target="_blank" href="position_detail.php?id=34532&keywords=python&tid=87&lid=2218">TEG03-高级图像算法研发工程师(深圳)</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
        <tr class="even">
            <td class="l square"><a target="_blank" href="position_detail.php?id=31648&keywords=python&tid=87&lid=2218">TEG11-高级AI开发工程师(深圳)</a></td>
            <td>技术类</td>
            <td>4</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
        <tr class="odd">
            <td class="l square"><a target="_blank" href="position_detail.php?id=32218&keywords=python&tid=87&lid=2218">15851-后台开发工程师</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
        <tr class="even">
            <td class="l square"><a target="_blank" href="position_detail.php?id=32217&keywords=python&tid=87&lid=2218">15851-后台开发工程师</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
        <tr class="odd">
            <td class="l square"><a id="test" class="test" target='_blank' href="position_detail.php?id=34511&keywords=python&tid=87&lid=2218">SNG11-高级业务运维工程师(深圳)</a></td>
            <td>技术类</td>
            <td>1</td>
            <td>深圳</td>
            <td>2017-11-24</td>
        </tr>
    </tbody>
</table>
"""
soup = BeautifulSoup(html, 'lxml')
print(soup, type(soup))
# 获取所有的 tr 标签
trs = soup.find_all("tr")
for tr in trs:
    print(tr)
    print('*' * 30)
# 获取第二个 tr 标签
tr = soup.find_all('tr')[1]
print(tr)
# 排除第一个tr值(通过切片的方式)
jobMsg = soup.find_all('tr')[1:]
print(jobMsg)
# 获取所有的 class = even 的 tr 标签:
# trs = soup.find_all('tr', class_='even')  # class为关键字,不能直接用作变量名
trs = soup.find_all('tr', attrs={"class": "even"})  # 效果同上,如果有多个值,在后面添加即可,推荐
for tr in trs:
    print(tr)
    print('--' * 44)
# 获取所有a标签里面的 href 属性值:
allA = soup.find_all('a')
for a in allA:
    href = a.get('href')
    print(href)
# 获取所有的岗位信息
trs = soup.find_all('tr')[1:]   # 把第一个的表头去掉
# print(trs)
for tr in trs:
    tds = tr.find_all('td')   # 找到所有的 td
    jobName = tds[0].string   # 获取文本数据,如果数据狠多,可以使用strings
    print(jobName)

以上就是Python数据解析之BeautifulSoup4的用法详解的详细内容,更多关于Python BeautifulSoup4的资料请关注脚本之家其它相关文章!

相关文章

  • 用Python实现给Word文档盖章

    用Python实现给Word文档盖章

    大家好,本篇文章主要讲的是用Python实现给Word文档盖章,感兴趣的同学赶快来看一看吧,对你有帮助的话记得收藏一下
    2022-02-02
  • python pandas库的安装和创建

    python pandas库的安装和创建

    这篇文章主要介绍了python pandas库的安装和创建,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2019-01-01
  • Python应用实现双指数函数及拟合代码实例

    Python应用实现双指数函数及拟合代码实例

    这篇文章主要介绍了Python应用实现双指数函数及拟合代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-06-06
  • Python列表list数组array用法实例解析

    Python列表list数组array用法实例解析

    这篇文章主要介绍了Python列表list数组array用法,实例解析了关于数组的各种常见操作,非常具有实用价值,需要的朋友可以参考下
    2014-10-10
  • python人工智能算法之差分进化算法的实现

    python人工智能算法之差分进化算法的实现

    DE基于GA,正如进化基于遗传,和遗传算法相比,差分进化引入了差分变异模式,相当于开辟了一条崭新的进化路径,下面就来看看差分优化算法是如何实现的吧
    2023-08-08
  • 浅谈python内置变量-reversed(seq)

    浅谈python内置变量-reversed(seq)

    下面小编就为大家带来一篇浅谈python内置变量-reversed(seq)。小编觉得挺不错的。现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-06-06
  • 使用python半分钟轻松完成证件照换底色

    使用python半分钟轻松完成证件照换底色

    是不是很多小伙伴儿都不清楚公司是需要蓝底还是红底的证件照,今天小编直接带大家做一款Python换底色的一款小程序,不管什么底色儿,放马过来
    2021-09-09
  • pip matplotlib报错equired packages can not be built解决

    pip matplotlib报错equired packages can not be built解决

    这篇文章主要介绍了pip matplotlib报错equired packages can not be built解决,具有一定借鉴价值,需要的朋友可以参考下
    2018-01-01
  • Python实现多脚本处理定时运行

    Python实现多脚本处理定时运行

    这篇文章主要介绍了Python实现多脚本处理定时运行,文章围绕主题展开详细的内容介绍,具有一定的参考价值,需要的小伙伴可以参考一下
    2022-06-06
  • Django admin model 汉化显示文字的实现方法

    Django admin model 汉化显示文字的实现方法

    今天小编就为大家分享一篇Django admin model 汉化显示文字的实现方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-08-08

最新评论