
本教程旨在教授如何使用 python 的 pandas 库高效地从网页中抓取 html 表格数据。通过 `pd.read_html()` 函数,您可以仅用几行代码就能将复杂的网页表格解析为结构化的 dataframe 对象,并轻松保存为 csv 文件,极大简化了传统网页抓取中解析表格的繁琐过程。
在数据分析和自动化任务中,从网页上提取结构化数据是一项常见需求。特别是当数据以 HTML 表格的形式呈现时,手动复制粘贴效率低下且易出错。传统的网页抓取方法,如使用 BeautifulSoup 和 requests 库,虽然功能强大,但在处理表格数据时,往往需要编写较多的代码来定位
、 和 标签,然后逐个提取单元格内容,最后手动构建数据结构。这种方法对于简单的表格尚可接受,但对于包含多个表格或复杂结构的页面,维护成本较高。
使用 Pandas read_html 简化表格抓取
Python 的 Pandas 库提供了一个极其便捷的功能 read_html(),它能够直接识别网页中的 HTML 表格,并将其解析成 DataFrame 对象。这极大地简化了从网页抓取表格数据的过程,通常只需几行代码即可完成。
pd.read_html() 函数的工作原理是:它会扫描给定的 URL 或 HTML 字符串,查找所有的
标签,并尝试将它们解析为 DataFrame。由于一个网页可能包含多个表格,该函数会返回一个 DataFrame 对象的列表。
实践教程:抓取 NCAA 女子足球 RPI 排名
我们将以 NCAA 女子足球 RPI 排名页面为例(https://www.ncaa.com/rankings/soccer-women/d1/ncaa-womens-soccer-rpi),演示如何使用 pd.read_html() 高效地抓取排名数据。
立即学习“前端免费学习笔记(深入)”;
步骤一:导入 Pandas 库
首先,确保您的环境中安装了 Pandas 库。如果尚未安装,可以通过 pip install pandas 命令进行安装。然后,在您的 Python 脚本中导入它:
import pandas as pd
步骤二:指定目标 URL
定义您希望抓取数据的网页链接。
url = "https://www.ncaa.com/rankings/soccer-women/d1/ncaa-womens-soccer-rpi"
步骤三:使用 read_html 抓取表格
调用 pd.read_html() 函数,传入目标 URL。该函数会返回一个包含页面上所有表格的 DataFrame 列表。通常,我们感兴趣的表格是列表中的第一个元素(索引为 0)。
# read_html 返回一个DataFrame列表,通常第一个元素就是我们需要的表格dfs = pd.read_html(url)df = dfs[0]
步骤四:查看并保存数据
现在,df 变量中存储的就是从网页表格中提取出的结构化数据。您可以打印 df 来查看其内容,也可以将其保存为 CSV 文件,以便后续分析。
# 打印 DataFrame 的前几行以进行检查print(df.head())# 将 DataFrame 保存为 CSV 文件df.to_csv("ncaa_womens_soccer_rpi.csv", index=False) # index=False 避免将 DataFrame 索引写入 CSVprint("n数据已成功抓取并保存到 ncaa_womens_soccer_rpi.csv")
完整示例代码:
import pandas as pd# 目标网页 URLurl = "https://www.ncaa.com/rankings/soccer-women/d1/ncaa-womens-soccer-rpi"# 使用 pandas.read_html 抓取网页中的所有表格# 它返回一个DataFrame列表,通常我们需要的表格是第一个dfs = pd.read_html(url)df = dfs[0] # 选择第一个表格# 打印 DataFrame 的前几行,进行初步检查print("抓取到的数据预览:")print(df.head())# 将 DataFrame 保存为 CSV 文件# index=False 避免将 DataFrame 的索引作为一列写入 CSVdf.to_csv("ncaa_womens_soccer_rpi.csv", index=False, encoding='utf-8')print("n数据已成功抓取并保存到 ncaa_womens_soccer_rpi.csv")
运行上述代码,您将在控制台看到抓取到的数据预览,并且在当前目录下会生成一个名为 ncaa_womens_soccer_rpi.csv 的文件,其中包含了完整的 NCAA 女子足球 RPI 排名数据。
pd.read_html() 的优势与注意事项
优势:
简洁高效: 仅需几行代码即可完成复杂的表格解析任务。直接生成 DataFrame: 无需手动构建数据结构,直接获得易于操作和分析的 DataFrame 对象。自动化程度高: 自动处理 HTML 表格的标签结构,包括
、、
和 。支持多种输入: 除了 URL,还可以接受本地 HTML 文件路径或 HTML 字符串。
注意事项:
动态加载内容: pd.read_html() 适用于内容在页面加载时就已经存在的静态 HTML 表格。如果网页数据是通过 JavaScript 动态加载的(例如,在页面加载完成后才通过 AJAX 请求获取数据并渲染),read_html() 可能无法获取到这些数据。对于这类情况,您可能需要使用更高级的工具,如 Selenium 或 Playwright,它们可以模拟浏览器行为,等待 JavaScript 执行完毕后再获取页面内容。多个表格: 如前所述,read_html() 返回一个 DataFrame 列表。您需要根据页面的结构和您的需求,选择正确的表格(例如 dfs[0]、dfs[1] 等)。有时可能需要检查每个 DataFrame 的内容来确定哪一个是目标表格。解析失败: 并非所有网页表格都能被完美解析。如果表格结构非常复杂、非标准,或者包含合并单元格等特殊情况,read_html() 可能会出现解析错误或结果不尽如人意。在这种情况下,结合 BeautifulSoup 进行更精细的定位和提取可能是必要的。网络请求错误: read_html() 在内部会发起 HTTP 请求。如果 URL 无效、网络连接问题或目标网站拒绝访问(例如,设置了反爬虫机制),可能会抛出 URLError 或 HTTPError。建议加入错误处理机制。
总结
pandas.read_html() 是 Python 数据科学工具箱中一个被低估但极其强大的功能,它为从网页抓取 HTML 表格数据提供了一个优雅且高效的解决方案。通过掌握这个函数,您可以大幅提高数据获取的效率,将更多精力投入到数据分析和洞察中。然而,对于动态加载内容或结构异常复杂的表格,了解其局限性并结合其他网页抓取工具(如 Beautiful Soup 或 Selenium)将使您的爬虫技能更加全面。
以上就是使用 Pandas read_html 高效抓取网页表格数据教程的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1593289.html
微信扫一扫
支付宝扫一扫