利用BeautifulSoup和Pandas高效抓取并结构化网页表格数据

利用BeautifulSoup和Pandas高效抓取并结构化网页表格数据

本教程详细介绍了如何使用Python的requests、BeautifulSoup和Pandas库从复杂网页中精确提取结构化表格数据。我们将以抓取特定区域的积雪深度数据为例,演示从识别HTML元素、解析表格结构到最终构建Pandas DataFrame的完整过程,并提供实用的代码示例和注意事项。

1. 背景与目标

在数据分析和自动化任务中,我们经常需要从网页上获取特定信息。当目标数据以表格形式呈现时,直接通过简单的元素选择器可能无法有效获取其结构化内容。本教程的目标是演示如何从一个包含积雪深度信息的网页(例如:https://www.yr.no/nb/sn%c3%b8dybder/no-46/norge/vestland)中,准确提取特定区域的积雪深度数据,并将其整理成易于分析的pandas dataframe。

2. 初始尝试与挑战

许多初学者在尝试抓取网页数据时,可能会先尝试查找页面上所有包含特定值的通用标签,例如通过soup.find_all(“span”, {“class”: “snow-depth__value”})来获取所有带有snow-depth__value类的span标签。这种方法虽然能获取到所有匹配的值,但存在以下问题:

缺乏上下文: 仅仅获取值无法知道它属于哪个区域、哪个时间点,数据是零散的。结构化困难: 将这些零散的值与对应的标题或描述关联起来,并最终放入DataFrame中,需要额外的逻辑处理,效率低下且容易出错。

正确的思路是首先识别目标数据在网页上的整体结构,特别是当数据呈现为表格时。

3. 精确抓取表格数据:分步指南

我们将利用requests库获取网页内容,BeautifulSoup解析HTML,然后识别并提取表格的标题和每一行数据,最终使用Pandas构建DataFrame。

3.1 引入必要的库

首先,导入我们将用到的Python库:

import requestsfrom bs4 import BeautifulSoupfrom bs4.element import ResultSet, Tagfrom typing import Generator, Listfrom pandas import DataFrame

3.2 发送HTTP请求并解析HTML

使用requests.get()方法获取网页的HTML内容,然后使用BeautifulSoup对其进行解析。

# 目标网页URLurl = 'https://www.yr.no/nb/sn%C3%B8dybder/NO-46/Norge/Vestland'# 发送GET请求获取网页内容response: requests.Response = requests.get(url)html: str = response.content# 使用BeautifulSoup解析HTMLsoup: BeautifulSoup = BeautifulSoup(html, 'html.parser')

3.3 识别并提取表格头部(列名)

表格的列名通常位于

标签中。通过检查网页的HTML结构,我们可以发现列名所在的 标签具有特定的类名,例如fluid-table__cell–heading。

# 查找所有表格头部单元格table_headers: ResultSet = soup.find_all('th', class_='fluid-table__cell--heading')# 提取列名文本# 注意:在BeautifulSoup中,由于'class'是Python的保留关键字,# 在find_all/find方法中作为参数传递时需要使用'class_'。colnames: List[str] = [th.text for th in table_headers]print("提取到的列名:", colnames)

3.4 识别并提取表格行数据

表格的每一行数据通常位于

标签中。同样,通过检查HTML结构,我们可以找到包含数据的标签具有特定的类名,例如fluid-table__row fluid-table__row–link。

为了高效处理数据,我们可以使用生成器表达式(Generator comprehension)来延迟计算,避免一次性加载所有数据到内存,这对于大型表格尤其有用。

# 查找所有表格数据行table_rows: ResultSet = soup.find_all('tr', class_='fluid-table__row fluid-table__row--link')# 使用生成器表达式提取每行中的所有单元格文本# 每个子生成器代表一行数据,包含该行所有子元素的文本内容# 这里的child.text会提取标签下所有子标签(如)的文本row_data: Generator[Generator[str, None, None], None, None] = (    (child.text for child in row.children) for row in table_rows)# 打印前几行数据以供检查(可选)print("n提取到的部分行数据:")for i, row in enumerate(row_data):    if i >= 3: # 只打印前3行        break    print(list(row)) # 将生成器转换为列表以便打印

3.5 构建Pandas DataFrame

有了列名和行数据,我们就可以轻松地使用Pandas的DataFrame构造函数来创建结构化的数据表。

# 重新获取row_data,因为上一步的打印操作已经消耗了生成器table_rows_for_df: ResultSet = soup.find_all('tr', class_='fluid-table__row fluid-table__row--link')row_data_for_df: Generator[Generator[str, None, None], None, None] = (    (child.text for child in row.children) for row in table_rows_for_df)# 创建Pandas DataFramedf: DataFrame = DataFrame(row_data_for_df, columns=colnames)# 尝试将所有列的数据类型转换为整数,如果遇到无法转换的值则忽略(保持原类型)df = df.astype(int, errors='ignore')print("n最终生成的Pandas DataFrame:")print(df.head())

4. 完整代码示例

将以上步骤整合,得到完整的代码如下:

import requestsfrom bs4 import BeautifulSoupfrom bs4.element import ResultSet, Tagfrom typing import Generator, Listfrom pandas import DataFramedef scrape_snow_depth_data(url: str) -> DataFrame:    """    从指定的URL抓取积雪深度表格数据并返回Pandas DataFrame。    Args:        url (str): 目标网页的URL。    Returns:        DataFrame: 包含积雪深度数据的Pandas DataFrame。    """    try:        response: requests.Response = requests.get(url)        response.raise_for_status()  # 检查HTTP请求是否成功    except requests.exceptions.RequestException as e:        print(f"请求网页失败: {e}")        return DataFrame()    html: str = response.content    soup: BeautifulSoup = BeautifulSoup(html, 'html.parser')    # 提取表格头部(列名)    table_headers: ResultSet = soup.find_all('th', class_='fluid-table__cell--heading')    colnames: List[str] = [th.text.strip() for th in table_headers] # 使用.strip()清除空白符    # 提取表格行数据    table_rows: ResultSet = soup.find_all('tr', class_='fluid-table__row fluid-table__row--link')    # 使用生成器表达式提取每行中的所有单元格文本    # 注意:这里需要确保每个row.children都能正确解析出所需的数据,    # 有时需要更精确的选择器如row.find_all('td')    row_data: Generator[List[str], None, None] = (        [child.text.strip() for child in row.children if isinstance(child, Tag)]         for row in table_rows    )    # 过滤掉空行或不完整的行,确保每行的数据量与列名数量一致    filtered_row_data = [row for row in row_data if len(row) == len(colnames)]    # 创建Pandas DataFrame    df: DataFrame = DataFrame(filtered_row_data, columns=colnames)    # 尝试将所有列的数据类型转换为整数,如果遇到无法转换的值则忽略    # 可能会有非数字列,所以使用errors='ignore'    for col in df.columns:        try:            df[col] = pd.to_numeric(df[col], errors='ignore')        except:            pass # 无法转换为数字的列保持原样    return dfif __name__ == "__main__":    import pandas as pd # 在主执行块中导入pd,避免全局污染    target_url = 'https://www.yr.no/nb/sn%C3%B8dybder/NO-46/Norge/Vestland'    snow_depth_df = scrape_snow_depth_data(target_url)    if not snow_depth_df.empty:        print("成功获取并处理积雪深度数据:")        print(snow_depth_df.head())        print("nDataFrame信息:")        snow_depth_df.info()    else:        print("未能获取到数据。")

5. 注意事项与最佳实践

网站结构变化: 网页的HTML结构可能会随时改变。如果代码突然失效,很可能是因为网站更新了其HTML标签、类名或结构。这时需要重新检查目标网页的HTML,并调整选择器。robots.txt: 在进行网页抓取前,务必检查网站的robots.txt文件(例如:https://www.yr.no/robots.txt),了解网站的抓取策略和允许抓取的范围。遵守这些规则是道德和法律要求。请求频率: 避免在短时间内发送大量请求,这可能导致IP被封禁或对网站服务器造成不必要的负担。可以使用time.sleep()在请求之间添加延迟。错误处理: 在实际应用中,应添加更健壮的错误处理机制,例如处理网络连接问题、页面不存在(404错误)、解析失败等情况。数据清洗: 抓取到的数据可能包含额外的空白字符、特殊符号或非预期的格式。使用.strip()、replace()等字符串方法进行进一步清洗是常见的步骤。astype(int, errors=’ignore’): 这个方法在尝试转换数据类型时非常有用,它会忽略那些无法转换为指定类型的值,保持其原始类型,从而避免程序崩溃。

6. 总结

通过本教程,我们学习了如何利用requests、BeautifulSoup和Pandas库,从复杂的网页中高效且准确地提取结构化表格数据。关键在于深入理解目标网页的HTML结构,特别是表格(

、)的组织方式。掌握这些技术,将使您能够自动化地获取并分析各种在线数据源,极大地提升数据处理能力。

以上就是利用BeautifulSoup和Pandas高效抓取并结构化网页表格数据的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1370722.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 10:47:37
下一篇 2025年12月14日 10:47:48

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    300

发表回复

登录后才能评论
关注微信