解决Web Scraping中HTML结构不一致问题:IBM文档网站案例分析

解决Web Scraping中HTML结构不一致问题:IBM文档网站案例分析

在Web Scraping过程中,网站HTML结构的不一致性常导致程序中断。本文将深入探讨这一常见挑战,以IBM文档网站为例,展示如何通过分析网站的内部API调用来获取稳定且结构化的数据。我们将利用Python的httpx和trio进行异步请求,并通过识别隐藏的API端点,实现更健壮、高效的数据抓取,避免直接依赖易变的HTML结构。

Web Scraping中HTML结构不一致的挑战

在进行web scraping时,开发者经常会遇到一个棘手的问题:同一url在不同时间或不同请求条件下返回的html结构可能不尽相同。这可能是由于多种原因造成的,例如:

动态内容加载: 现代网站普遍使用JavaScript动态加载内容。如果爬虫未能正确执行JavaScript,可能只能获取到初始的、不完整的HTML骨架。A/B测试或个性化内容: 网站可能对不同用户展示不同版本的页面,或根据用户地理位置、设备等信息提供个性化内容。用户代理(User-Agent)检测: 网站可能会根据请求头中的User-Agent来判断请求来源是浏览器还是爬虫,从而返回不同的HTML内容,甚至直接返回错误页面或简化版页面。服务器端渲染(SSR)与客户端渲染(CSR)混合: 某些页面可能部分内容由服务器渲染,部分由客户端渲染,导致首次请求与完全加载后的DOM结构差异。错误或重定向: 当原始URL失效或被重定向时,可能会返回一个包含错误信息的HTML页面,而非预期的内容。

在上述IBM文档网站的案例中,观察到两种截然不同的HTML结构:一种是包含完整表格数据的预期结构,另一种则包含大量error.sorryText等JavaScript变量,明显是一个错误或备用页面。这表明网站可能根据请求的某些特征,或在无法找到特定内容时,返回了不同的响应。

识别并利用API数据源

当面对不稳定的HTML结构时,一个更可靠的策略是尝试识别网站用于加载数据的底层API。许多现代网站,尤其是那些动态加载内容的网站,通常会通过内部API获取数据,然后使用JavaScript在客户端渲染这些数据。直接请求这些API端点,往往能获得更稳定、结构化的JSON或XML数据,甚至直接是包含目标数据的HTML片段。

要找到这些API端点,通常需要借助浏览器开发者工具(如Chrome DevTools或Firefox Developer Tools)的“网络” (Network) 选项卡。在加载目标页面时,监控所有发出的XHR/Fetch请求,通常可以找到返回所需数据的API调用。

在IBM文档网站的案例中,通过分析其请求流程,可以发现它首先访问了一个常规URL,然后该页面会提供一个”oldUrl”:”(.*?)”的线索。这个oldUrl实际上指向了一个内部的API端点,该端点能够直接返回包含表格数据的HTML片段。

立即学习“前端免费学习笔记(深入)”;

解决方案:异步请求与API调用

为了解决HTML结构不一致的问题,我们可以采取以下步骤:

模拟浏览器行为: 使用一个真实的User-Agent请求头,以尽可能地模拟浏览器行为,避免被网站识别为爬虫而返回异常内容。首次请求获取API线索: 对原始URL发起GET请求,解析其内容以提取指向实际数据API的oldUrl。构造API请求: 利用提取到的oldUrl构建正确的API请求URL,并添加必要的参数(例如parsebody=true和lang=en),这些参数通常是API正常工作所必需的。发起API请求并解析数据: 对API端点发起请求,获取其响应。由于API通常返回更干净、更结构化的数据(或包含目标HTML片段),我们可以直接使用pandas.read_html()等工具进行高效解析。异步处理: 对于需要抓取大量页面的场景,使用异步HTTP客户端(如httpx)配合异步运行时(如trio或asyncio)可以显著提高抓取效率。

以下是实现这一策略的Python代码示例:

import httpx  # 异步HTTP客户端import trio   # 异步运行时import re     # 正则表达式模块import pandas as pd # 数据处理库# 定义请求头,模拟浏览器headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/113.0'}async def fetch_table_data(identifier: str):    """    异步函数:根据标识符获取表格数据    """    async with httpx.AsyncClient(headers=headers, base_url='https://www.ibm.com/docs') as client:        # 1. 构造原始URL的参数        initial_params = {            'topic': f'tables-{identifier}' # 使用传入的标识符        }        # 2. 对原始URL发起首次请求,获取包含API线索的HTML        # 注意:这里假设 identifier 最终会映射到类似 t-accessdateval 这样的 topic        # 如果原始问题中的 URL 结构是固定的,如 "en/imdm/12.0?topic=t-accessdateval"        # 那么 initial_params['topic'] 应该直接是 't-accessdateval' 或类似的固定值        # 这里为了演示通用性,我们用 f'tables-{identifier}'        # 原始问题中的URL是 "https://www.ibm.com/docs/en/imdm/12.0?topic=t-accessdateval"        # 对应的path是 'en/imdm/12.0',topic是 't-accessdateval'        # 所以这里的 path 和 params 需要根据实际情况调整        # 假设 identifier 已经是 't-accessdateval' 这样的形式        initial_response = await client.get('en/imdm/12.0', params={'topic': identifier})        # 3. 使用正则表达式从响应文本中提取 'oldUrl'        # 'oldUrl' 通常指向一个内部API端点        match = re.search(r'"oldUrl":"(.*?)"', initial_response.text)        if not match:            print(f"未能找到 {identifier} 的 oldUrl。")            return pd.DataFrame() # 返回空DataFrame        old_url_path = match.group(1)        # 4. 构造API请求的URL路径        # API路径通常是 'api/v1/content/' 加上提取到的 oldUrl        api_url_path = "api/v1/content/" + old_url_path        # 5. 定义API请求的参数        api_params = {            'parsebody': 'true', # 确保API返回解析后的内容            'lang': 'en'         # 指定语言        }        # 6. 对API端点发起GET请求        api_response = await client.get(api_url_path, params=api_params)        # 7. 使用pandas.read_html直接解析API响应中的表格数据        # attrs={'class': 'defaultstyle'} 用于精确匹配目标表格        try:            # api_response.content 包含的是HTML片段,pandas可以直接解析            dataframes = pd.read_html(api_response.content, attrs={'class': 'defaultstyle'})            if dataframes:                df = dataframes[0]                # 可以根据需要添加其他信息,例如原始的 identifier                df.insert(0, "Source_Identifier", identifier)                return df            else:                print(f"未能从 {identifier} 的API响应中找到表格。")                return pd.DataFrame()        except ValueError as e:            print(f"解析 {identifier} 的HTML表格时出错: {e}")            return pd.DataFrame()async def main():    # 假设 'identifiers.csv' 包含一列名为 'Identifier' 的数据    # 例如:Identifier    #      t-accessdateval    #      t-another-table    df_identifiers = pd.read_csv('identifiers.csv')    all_dfs = []    # 遍历所有标识符,并发地获取数据    async with trio.TaskGroup() as tg:        for index, row in df_identifiers.iterrows():            identifier = row['Identifier']            tg.start_soon(lambda id=identifier: all_dfs.append(trio.run(fetch_table_data, id))) # 包装为同步调用以添加到列表            # 实际上,trio.run(fetch_table_data, id) 是一个阻塞调用,这里需要调整为异步收集结果            # 正确的异步收集方式如下:            # task_result = await fetch_table_data(identifier)            # all_dfs.append(task_result)            # 或者更优的,使用 tg.start_soon 来并行运行任务,并收集结果            # 由于 trio.run 不能在另一个 trio.run 内部调用,我们需要调整收集结果的方式            # 简单起见,这里先演示串行,如果需要并行,可以构建一个列表的 awaitables            # 或者让 fetch_table_data 返回一个 Future/Deferred,然后在 TaskGroup 中等待            # 对于本教程,我们先采用一个简化的并行/串行混合方式,或者直接在 main 中串行调用            # 更直接的并行收集方式:            # tasks = [tg.start_soon(fetch_table_data, identifier) for identifier in df_identifiers['Identifier']]            # 然后需要一种机制来收集这些任务的结果。            # 这里为了教程的简洁性,先展示一个可以运行的串行/伪并行结构,            # 真正的并行收集需要更复杂的 TaskGroup 模式,例如使用 trio.Queue 或共享列表加锁。            # 为了避免复杂性,我们在这里直接串行调用,或者使用一个简单的异步列表收集            df = await fetch_table_data(identifier)            if not df.empty:                all_dfs.append(df)    if all_dfs:        combined_df = pd.concat(all_dfs, ignore_index=True)        print(combined_df)        combined_df.to_csv('combined_table_data_api.csv', index=False)    else:        print("未获取到任何数据。")if __name__ == "__main__":    trio.run(main)

代码解析:

httpx和trio: httpx是一个现代的HTTP客户端,支持同步和异步请求。trio是一个异步I/O库,提供了一种结构化的并发编程方式。headers: 设置User-Agent,模拟浏览器请求,这对于避免被网站反爬机制识别非常重要。fetch_table_data函数:接收identifier作为参数,用于构建URL。首先向en/imdm/12.0路径发送请求,并传入topic参数。使用re.search从响应文本中查找”oldUrl”:”(.*?)”模式,提取出实际的API路径。将提取到的oldUrl_path与api/v1/content/拼接,形成完整的API请求路径。向这个API路径发送请求,并带上parsebody=true和lang=en参数,这些参数告诉API返回可解析的HTML内容。pd.read_html(api_response.content, attrs={‘class’: ‘defaultstyle’}):这是核心步骤。pandas库的read_html函数可以直接从HTML内容中识别并提取表格,返回一个DataFrame列表。attrs={‘class’: ‘defaultstyle’}用于指定只查找class为defaultstyle的表格,提高准确性。将获取到的DataFrame添加一个Source_Identifier列,以便追踪数据来源。main函数:读取包含标识符的CSV文件。遍历每个标识符,调用fetch_table_data函数获取数据。为了教程简洁,这里展示的是串行调用。在实际大规模抓取中,应利用trio.TaskGroup等机制实现真正的并发。将所有获取到的DataFrame合并成一个。打印并保存最终的合并数据到CSV文件。

总结与最佳实践

深入分析网站行为: 当HTML结构不稳定时,不要只盯着HTML本身,而是要利用浏览器开发者工具(Network Tab)观察网站的实际数据加载方式,尤其是XHR/Fetch请求。优先使用API: 如果网站有明确的API来提供数据,尽可能直接调用API。API通常提供更稳定、结构化、易于解析的数据格式(如JSON、XML),且不易受前端UI改动的影响。模拟真实用户: 使用合适的User-Agent和其他HTTP请求头(如Referer、Accept-Language等)来模拟真实浏览器行为,可以有效避免被网站的反爬机制拦截或返回异常内容。异步编程: 对于需要处理大量请求的Web Scraping任务,httpx配合asyncio或trio等异步库可以显著提升性能和效率。健壮性与错误处理: 在代码中加入适当的错误处理机制(如try-except块),以应对网络错误、API响应异常或解析失败等情况,确保爬虫的稳定运行。遵守Robots协议和网站使用条款: 在进行Web Scraping时,务必检查网站的robots.txt文件,并遵守网站的使用条款,进行负责任的抓取。

通过上述方法,我们可以更有效地应对Web Scraping中HTML结构不一致的挑战,构建出更稳定、高效和健壮的数据抓取系统。

以上就是解决Web Scraping中HTML结构不一致问题:IBM文档网站案例分析的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1519751.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月20日 12:42:21
下一篇 2025年12月20日 12:42:35

相关推荐

  • JavaScript单元测试与Mocking

    单元测试通过隔离函数验证行为,Mocking可替换依赖如API或数据库,避免不稳定和慢速问题。Jest提供jest.fn()、jest.mock()等工具模拟返回值与调用,支持异步请求和错误场景,结合mockResolvedValue、toHaveBeenCalledWith等方法精准控制测试逻辑,…

    好文分享 2025年12月20日
    000
  • JavaScript计算机视觉应用

    JavaScript通过TensorFlow.js、OpenCV.js等库实现浏览器端图像处理与人脸识别,支持实时人脸检测、手势交互、文档扫描等应用,依托Web平台快速开发,适合轻量级与隐私敏感场景。 JavaScript在计算机视觉领域的应用正变得越来越广泛,尤其得益于现代浏览器能力和前端技术的发…

    2025年12月20日
    000
  • JavaScript内存泄漏检测

    使用Chrome DevTools进行堆快照、内存分配时间线记录和垃圾回收监控,可有效检测JavaScript内存泄漏;结合Performance面板分析内存趋势,重点关注脱离文档的DOM节点和未解绑事件、闭包引用、定时器等常见泄漏场景;通过严格模式、及时解绑监听、使用WeakMap/WeakSet…

    2025年12月20日
    000
  • JavaScript爬虫程序实现方案

    答案:JavaScript爬虫需借助能执行JS的工具抓取动态内容,主要方案包括Puppeteer和Playwright实现浏览器自动化,或结合Cheerio与预渲染服务进行轻量级抓取,同时需注意反爬策略与请求频率控制。 JavaScript爬虫程序的实现主要依赖于能够执行JS的工具,因为传统爬虫(如…

    2025年12月20日
    000
  • JavaScript拖拽交互高级实现

    实现高级JavaScript拖拽需基于mousedown/touchstart事件,结合mousemove/touchmove实时更新位置,并在mouseup/touchend结束拖拽。核心是绑定事件到document防止失联,使用offset计算定位,支持触摸设备时通过e.touches[0]获取…

    2025年12月20日
    000
  • 移动端适配方案进阶

    移动端适配需从视口控制、弹性布局、高清屏处理和资源优化入手。首先设置viewport标签确保布局视口与设备宽度一致;其次采用rem或vw实现界面等比缩放,提升响应性;再通过transform或媒体查询解决Retina屏1px边框变粗问题;最后使用srcset、picture标签及WebP格式优化字体…

    2025年12月20日
    000
  • JavaScript中的对象迭代顺序是否可靠?

    对象迭代顺序在现代JavaScript中可靠,遵循ES2015规范:数字键按升序排列,字符串键和Symbol键按插入顺序排列;for…in和Object.keys()均遵循此规则,在主流引擎中可预测;需注意旧浏览器兼容性及动态修改属性对顺序的影响,若需严格控制顺序建议使用Map或数组。 …

    2025年12月20日
    000
  • Discord.js V14:修复机器人无法在私信中响应消息的问题

    本文旨在解决Discord.js V14版本中,机器人无法响应私信消息的问题。通过检查并配置必要的Gateway Intent Bits和Partials,确保机器人能够正确接收和处理私信频道的消息,从而实现与用户的私信互动功能。 在使用Discord.js V14开发机器人时,一个常见的问题是机器…

    2025年12月20日
    000
  • 解决JavaScript动态添加表格行中Select2下拉框不生效的问题

    在使用javascript动态向dom添加元素时,像select2这样的jquery插件不会自动应用于新元素。本文将详细讲解,当向表格动态添加包含“元素的行时,如何正确地初始化select2插件,确保其功能正常,并指出常见的语法错误及修正方法,以提供一个完整的解决方案。 动态DOM元素与…

    2025年12月20日
    000
  • k6 性能测试:open 函数误导入导致的 TypeError 错误分析与修正

    本教程旨在解决 k6 性能测试脚本中常见的 `typeerror: value is not an object: undefined` 错误。该错误通常源于错误地尝试导入 k6 的 `open` 函数。`open` 是 k6 初始化上下文中的全局函数,无需显式导入。文章将详细解释错误原因,并提供正…

    2025年12月20日
    000
  • 异步编程进阶:Promise与async/await深度剖析

    Promise是状态机,通过then链式调用返回新Promise,async/await以同步语法处理异步,基于Promise并依赖事件循环的微任务队列,合理使用可避免回调地狱并提升代码可读性与健壮性。 JavaScript 是单线程语言,异步编程是其核心能力之一。随着应用复杂度提升,回调地狱(Ca…

    2025年12月20日
    000
  • PeerJS运行时更新数据连接处理器回调函数

    本文旨在解决peerjs数据连接处理器在运行时更新回调函数的问题。核心内容是阐述了直接使用匿名函数进行`off()`和`on()`操作的局限性,并提出了通过引用原始函数实例来正确移除和重新注册事件监听器的解决方案,从而允许在不中断连接的情况下动态修改回调逻辑或其内部状态。 在基于PeerJS构建实时…

    2025年12月20日
    000
  • 使用自定义Hooks抽象React中重复的加载和错误处理模式

    本文旨在探讨并解决react应用中常见的重复性代码模式,特别是针对异步操作的加载状态和错误处理逻辑。通过引入自定义hooks,我们可以有效地抽象这些通用逻辑,显著减少代码冗余,提升组件的可读性、可维护性及复用性,从而构建更清晰、更专业的react应用架构。 在构建复杂的React应用程序时,开发者经…

    好文分享 2025年12月20日
    000
  • JavaScript中的代码签名(Code Signing)有何重要性?

    JavaScript虽不直接支持传统代码签名,但通过SRI、HTTPS、Sigstore等机制可实现代码完整性校验与来源验证:1. SRI确保外部脚本未被篡改;2. npm包可用cosign等工具签名防假冒;3. Electron应用可通过证书签名提升系统信任;4. 签名日志满足合规审计要求。 Ja…

    2025年12月20日
    000
  • JavaScript编译器设计原理

    JavaScript 通过引擎实现即时编译与优化,首先进行词法和语法分析生成 AST,再由 Ignition 解释器转为字节码并收集运行信息,TurboFan 根据类型反馈将热点代码编译为优化的机器码,同时采用分代垃圾回收机制管理内存,从而在动态语言特性下达到接近静态语言的执行性能。 JavaScr…

    2025年12月20日
    000
  • JavaScript弱引用与垃圾回收

    弱引用是不阻止垃圾回收的引用方式,JavaScript中通过WeakMap和WeakSet实现,其键或元素为弱引用,仅在对象无强引用时允许被回收。 JavaScript中的弱引用与垃圾回收机制密切相关,理解它们有助于优化内存使用,避免内存泄漏。弱引用允许对象在没有其他强引用时被垃圾回收器正确清理,而…

    2025年12月20日
    000
  • 如何实现一个JavaScript的语法高亮器?

    答案:实现JavaScript语法高亮器需解析代码为带类型标记并用CSS着色。核心步骤包括设计代码容器、用正则匹配关键字、字符串、注释等语法元素,通过JavaScript替换为带类名的标签,再插入DOM,最后用CSS定义颜色样式。基础版可用正则快速构建,但存在误匹配风险,优化方向包含避免上下文错误、…

    2025年12月20日
    000
  • 如何构建一个支持热更新的前端开发环境?

    核心是通过现代打包工具和开发服务器实现代码修改后自动更新。1. Webpack 配置 hot: true 并使用 HotModuleReplacementPlugin 支持 HMR;2. Vite 默认支持,基于 ESM 快速响应;3. Parcel 零配置自动监听文件变化;4. 配置代理避免跨域,…

    2025年12月20日
    000
  • JavaScript中的代理与反射API有哪些高级用法?

    Proxy与Reflect结合可实现属性验证、深层冻结、方法自动绑定及响应式数据监听。1. 通过set拦截赋值并用Reflect保持默认行为,实现类型校验;2. 利用get递归代理嵌套对象,配合不可变操作拦截,实现深冻结;3. 在get中对函数自动bind实例,解决this丢失问题;4. 在set中…

    2025年12月20日
    000
  • JavaScript Service Worker高级应用

    Service Worker通过拦截请求、管理缓存、后台同步与消息推送,实现PWA的高级功能。1. 可采用Cache-First、Stale-While-Revalidate等策略精细化控制资源缓存;2. 通过fetch事件实现路由拦截与代理转发,支持微前端与灰度发布;3. 利用Background…

    2025年12月20日
    000

发表回复

登录后才能评论
关注微信