从 ASP.NET 网站抓取 HTML 表格数据的实用指南

从 asp.net 网站抓取 html 表格数据的实用指南

本文旨在提供一个清晰、高效的解决方案,用于从动态 ASP.NET 网站抓取表格数据。通过模拟网站的 POST 请求,绕过 Selenium 的使用,直接获取包含表格数据的 HTML 源码。结合 BeautifulSoup 和 Pandas 库,实现数据的解析、清洗和提取,最终以易于阅读的表格形式呈现。该方法适用于需要自动化抓取此类网站数据的场景,能有效提高数据获取的效率和稳定性。

从 ASP.NET 网站抓取数据,特别是表格数据,有时会遇到一些挑战。传统的 requests 结合 BeautifulSoup 可能无法直接获取到动态加载的内容,而使用 Selenium 虽然可以解决动态加载的问题,但效率相对较低。本文介绍一种更高效的方法,通过分析网站的请求,模拟 POST 请求直接获取包含表格数据的 HTML 源码,然后利用 BeautifulSoup 和 Pandas 库进行解析和提取。

步骤详解

分析网站请求

首先,需要分析目标网站的请求方式和参数。使用浏览器的开发者工具(通常按 F12 键打开),在 Network 选项卡中观察网页加载过程中发送的请求。特别是 POST 请求,通常包含一些关键的参数,例如 __VIEWSTATE、__EVENTVALIDATION 等。这些参数是 ASP.NET 用来维护页面状态的,需要在后续的请求中携带。

立即学习“前端免费学习笔记(深入)”;

获取关键参数

使用 requests 库获取网页的初始 HTML 源码,然后使用 BeautifulSoup 解析 HTML,提取 __VIEWSTATE 和 __EVENTVALIDATION 的值。

import requestsfrom bs4 import BeautifulSoupurl = "https://serviciosede.mineco.gob.es/indeco/reports/verSerieGraf.aspx/?codigo=230400&frec=-1"with requests.Session() as s:    soup = BeautifulSoup(s.get(url).text, "lxml")    # Get the viewstate and eventvalidation values first    payload_data["__VIEWSTATE"] = soup.select_one("#__VIEWSTATE")["value"]    payload_data["__EVENTVALIDATION"] = soup.select_one("#__EVENTVALIDATION")["value"]

这段代码使用 requests.Session() 创建一个会话,以便在后续的请求中保持 Cookie 等信息。然后,使用 BeautifulSoup 解析 HTML,通过 CSS 选择器 soup.select_one(“#__VIEWSTATE”)[“value”] 提取 __VIEWSTATE 和 __EVENTVALIDATION 的值。

构造 POST 请求

构造一个字典,包含需要 POST 的数据。除了 __VIEWSTATE 和 __EVENTVALIDATION,可能还需要包含其他参数,例如 __EVENTTARGET、控件的 ID 等。这些参数通常可以在开发者工具的 Network 选项卡中找到。

payload_data = {    "__EVENTTARGET": "ReportViewer1$_ctl9$Reserved_AsyncLoadTarget",    "__VIEWSTATE": "",    "__VIEWSTATEGENERATOR": "4B866612",    "__EVENTVALIDATION": "",    "ReportViewer1:_ctl11": "standards",    "ReportViewer1:AsyncWait:HiddenCancelField": "False",    "ReportViewer1:ToggleParam:collapse": "false",    "ReportViewer1:_ctl7:collapse": "false",    "ReportViewer1:_ctl9:VisibilityState:_ctl0": "None",    "ReportViewer1:_ctl9:ReportControl:_ctl4": "100"}

请注意,payload_data 中的值需要根据实际情况进行调整。

发送 POST 请求并解析表格数据

使用 requests.post() 方法发送 POST 请求,并将构造好的数据作为参数传递。然后,使用 Pandas 库的 read_html() 方法解析返回的 HTML 源码,提取表格数据。

import pandas as pdfrom io import StringIOwith requests.Session() as s:    soup = BeautifulSoup(s.get(url).text, "lxml")    # Get the viewstate and eventvalidation values first    payload_data["__VIEWSTATE"] = soup.select_one("#__VIEWSTATE")["value"]    payload_data["__EVENTVALIDATION"] = soup.select_one("#__EVENTVALIDATION")["value"]    # Now the table should be in the source HTML    table_data = s.post(url, data=payload_data)    # Do some pandas magic to get the table data    df = pd.read_html(StringIO(table_data.text))[-3]    df = df.drop(df.columns[0], axis=1)    df.dropna(inplace=True)    df.columns = df.iloc[0]    df = df.iloc[1:]    print(tabulate(df, headers='keys', tablefmt='psql', showindex=False))

pd.read_html() 方法会返回一个包含所有表格数据的列表。根据实际情况,选择正确的表格索引。然后,对表格数据进行清洗,例如删除不需要的列、删除空行、设置列名等。

数据清洗和格式化

根据实际需求,对提取到的表格数据进行清洗和格式化。例如,删除不需要的列、删除空行、修改数据类型等。

注意事项

User-Agent: 某些网站会检查 User-Agent,可以设置请求头模拟浏览器访问。Cookies: 有些网站依赖 Cookies 来跟踪会话,需要正确处理 Cookies。requests.Session() 可以方便地管理 Cookies。动态参数: __VIEWSTATE 和 __EVENTVALIDATION 等参数可能会动态变化,每次请求前都需要重新获取。错误处理: 添加适当的错误处理机制,例如捕获 requests.exceptions.RequestException 异常。网站协议: 遵守网站的robots.txt协议,尊重网站的爬取规则。

总结

本文介绍了一种从 ASP.NET 网站抓取表格数据的高效方法,通过模拟 POST 请求直接获取包含表格数据的 HTML 源码,避免了使用 Selenium 的开销。结合 BeautifulSoup 和 Pandas 库,可以方便地解析和提取表格数据。在实际应用中,需要根据目标网站的具体情况进行调整,例如修改 POST 数据、处理 Cookies 等。

以上就是从 ASP.NET 网站抓取 HTML 表格数据的实用指南的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1368746.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 09:03:26
下一篇 2025年12月14日 09:03:35

相关推荐

  • Python怎么连接数据库_Python数据库连接步骤详解

    答案:Python连接数据库需选对驱动库,通过连接、游标、SQL执行、事务提交与资源关闭完成操作,使用参数化查询防注入,结合连接池、环境变量、ORM和with语句提升安全与性能。 说起Python连接数据库,其实并不复杂,核心就是‘找对钥匙’——也就是那个能让Python和特定数据库对话的驱动库。一…

    2025年12月14日
    000
  • Python中装饰器基础入门教程 Python中装饰器使用场景

    Python装饰器通过封装函数增强功能,实现日志记录、权限校验、性能监控等横切关注点的分离。 Python装饰器本质上就是一个函数,它能接收一个函数作为参数,并返回一个新的函数。这个新函数通常在不修改原有函数代码的基础上,为其添加额外的功能或行为。它让我们的代码更模块化、可复用,并且更“优雅”地实现…

    2025年12月14日
    000
  • 获取 Discord 角色 ID:discord.py 使用指南

    本文档旨在指导开发者如何使用 discord.py 库,通过角色 ID 获取 Discord 服务器中的角色对象。我们将详细介绍 Guild.get_role() 方法的正确使用方式,并提供示例代码,帮助您解决常见的 TypeError 错误,确保您的 Discord 机器人能够顺利地根据角色 ID…

    2025年12月14日
    000
  • 计算Python中的办公室工作时长

    本文旨在提供一个使用Python计算办公室工作时长的教程,该教程基于CSV数据,无需依赖Pandas库。通过读取包含员工ID、进出类型和时间戳的数据,计算出每个员工在指定月份(例如二月)的工作时长,并以易于理解的格式输出结果。重点在于数据处理、时间计算和结果呈现,并提供代码示例和注意事项。 使用Py…

    2025年12月14日
    000
  • 计算Python中的办公时长

    本文介绍了如何使用Python计算CSV文件中员工在特定月份(例如2月)的办公时长,重点在于处理时间数据、按ID分组以及计算时间差。文章提供了详细的代码示例,展示了如何读取CSV文件、解析日期时间字符串、按ID聚合数据,并最终计算出每个ID在指定月份的总办公时长。同时,也提醒了数据清洗和异常处理的重…

    2025年12月14日
    000
  • Python计算办公时长:CSV数据处理与时间差计算

    本文旨在提供一个Python脚本,用于从CSV文件中读取数据,计算特定月份内(例如二月)每个ID对应的办公时长。该脚本不依赖Pandas库,而是使用csv和datetime模块进行数据处理和时间计算。文章将详细解释代码逻辑,并提供注意事项,帮助读者理解和应用该方法。 数据准备 首先,我们需要准备包含…

    2025年12月14日
    000
  • 解决LabelEncoder在训练集和测试集上出现“未见标签”错误

    本文旨在帮助读者理解并解决在使用LabelEncoder对分类变量进行编码时,遇到的“y contains previously unseen labels”错误。通过详细分析错误原因,并提供正确的编码方法,确保模型在训练集和测试集上的一致性,避免数据泄露。 问题分析 在使用LabelEncoder…

    2025年12月14日
    000
  • 解决Twine上传PyPI时reStructuredText描述渲染失败的问题

    Python开发者在发布包到PyPI时,常使用twine工具。尽管本地build过程顺利,但在执行twine upload时却可能遭遇HTTPError: 400 Bad Request,并伴随“The description failed to render for ‘text/x-r…

    2025年12月14日
    000
  • 使用 LabelEncoder 时避免“未见标签”错误

    本文旨在帮助读者理解并解决在使用 LabelEncoder 对数据进行编码时遇到的“y contains previously unseen labels”错误。我们将深入探讨错误原因,并提供清晰的代码示例,展示如何正确地使用 LabelEncoder 对多个特征列进行编码,确保模型训练和预测过程的…

    2025年12月14日
    000
  • 解决Twine上传PyPI时RST描述渲染失败问题

    本文旨在解决Python包上传至PyPI时,因long_description中的reStructuredText (RST) 描述渲染失败而导致的HTTPError: 400 Bad Request问题。通过详细分析错误原因,特别是.. raw:: html指令的不兼容性,并提供具体的RST语法修…

    2025年12月14日
    000
  • 解决LabelEncoder无法识别先前“见过”的标签问题

    本文旨在解决在使用 LabelEncoder 对数据进行编码时,遇到的“y contains previously unseen labels”错误。该错误通常出现在训练集和测试集(或验证集)中包含不同的类别标签时。本文将详细解释错误原因,并提供正确的编码方法,确保模型能够正确处理所有类别。 在使用…

    2025年12月14日
    000
  • 清理Python项目构建文件:告别setup.py的时代

    清理Python项目构建文件,告别setup.py的时代。随着setup.py的弃用和pyproject.toml的普及,我们需要掌握新的清理策略。本文将指导你手动识别并删除常见的构建产物,确保项目目录的整洁,并提供一些便捷的清理技巧,适用于使用python -m build构建的项目。 在过去,通…

    2025年12月14日
    000
  • 解决PyPI上传失败:理解reStructuredText描述渲染错误

    当Python包上传到PyPI时,如果遇到“The description failed to render for ‘text/x-rst’”错误,通常是由于long_description字段中的reStructuredText(RST)标记不符合PyPI的渲染规范。特别…

    2025年12月14日
    000
  • 如何清理 Python 项目中的构建文件(无需 setup.py)

    本文旨在介绍如何在不依赖 setup.py 的情况下,清理使用 python -m build 构建的 Python 项目中的构建文件。随着 setup.py 的逐渐弃用,了解如何手动清理构建产物变得至关重要。本文将详细列出需要清理的常见文件和目录,并提供相应的操作指南,帮助开发者维护一个干净的开发…

    2025年12月14日
    000
  • Python项目清理:告别setup.py,手动清除构建文件

    随着Python项目构建方式从setup.py转向pyproject.toml和python -m build,传统的setup.py clean命令不再适用。本文将指导您如何在没有setup.py文件的项目中,手动识别并安全删除常见的构建产物和临时文件,如__pycache__目录、.pyc文件、…

    2025年12月14日
    000
  • Python项目构建文件清理指南:告别setup.py的现代化实践

    本文旨在为不使用setup.py而采用pyproject.toml构建的Python项目提供一套清理构建文件的实用指南。随着setup.py的逐步弃用,理解并手动识别及删除如__pycache__、.pyc文件、build目录等临时构建产物变得至关重要,以确保项目环境的整洁和可控性。 背景:从set…

    2025年12月14日
    000
  • 使用 Flask 和 Python 定时刷新 CSV 文件

    本文旨在指导开发者如何使用 Flask 框架和 Python 实现定时刷新 CSV 文件的功能,以便在 Web 应用中展示最新的数据。我们将探讨使用 Celery、APScheduler 或简单的 cron 任务来自动化数据抓取和更新 CSV 文件的过程,并讨论如何处理文件锁定的问题,确保数据的一致…

    2025年12月14日
    000
  • Pandas DataFrame高级数据重塑:实现多层列标题与数据对齐

    本教程详细讲解如何利用Pandas对DataFrame进行高级数据重塑,以实现特定的多层列标题结构。通过结合set_index(), unstack(), to_frame(), T (转置) 和 swaplevel() 等关键操作,我们将演示如何将现有列转换为新的二级列标题,同时保持数据与新结构准…

    2025年12月14日
    000
  • 获取 Discord 角色 ID:Discord.py 教程

    本教程旨在帮助你理解如何使用 discord.py 库通过角色 ID 获取 Role 对象。我们将重点讲解 discord.Guild.get_role() 方法的正确使用方式,避免常见的 TypeError 错误,并提供示例代码和相关文档链接,以便你更好地理解和应用。 在使用 discord.py…

    2025年12月14日
    000
  • discord.py 教程:正确根据ID获取Discord角色对象

    本教程详细讲解了在 discord.py 中根据角色ID获取 discord.Role 对象的正确方法。针对常见的 TypeError: Guild.get_role() got some positional-only arguments passed as keyword arguments 错…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信