如何高效抓取网页图表数据:绕过鼠标悬停,直取JavaScript变量

如何高效抓取网页图表数据:绕过鼠标悬停,直取javascript变量

本文旨在解决网页图表数据抓取中常见的鼠标悬停(mouse-hover)信息获取难题。针对特定场景,当图表数据已嵌入网页的JavaScript变量中时,通过Python的requests库获取页面内容,结合正则表达式re直接解析并提取数据,再利用pandas进行结构化处理,可实现比模拟鼠标悬停更高效、稳定的数据抓取,并避免Selenium操作的复杂性和性能开销。

1. 问题分析与传统方法局限性

在网页数据抓取过程中,我们经常遇到需要获取图表上鼠标悬停时才显示的数据(如价格历史、性能曲线等)。常见的直觉是使用自动化测试工具如Selenium,模拟用户行为:打开浏览器、定位图表元素、模拟鼠标移动到元素上,然后尝试获取弹出的提示信息。

原始尝试的代码片段展示了这种思路:

from selenium import webdriverfrom selenium.webdriver import ActionChainsfrom selenium.webdriver.chrome.service import Servicefrom selenium.webdriver.chrome.options import Optionsfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support import expected_conditions as EC# ... (初始化WebDriver代码省略) ...driver.get('https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%40+3.50GHz&id=3904')# 尝试定位图表元素element = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.XPATH, "//*[@id='placeholder']/div/canvas[2]")))# 问题所在:element是一个WebElement对象,不可直接迭代for el in element: # 导致 'WebElement' object is not iterable 错误    ActionChains(driver).move_to_element(el).perform()    mouseover = WebDriverWait(driver, 30).until(EC.visibility_of_element_located((By.SELECTOR, ".placeholder > div > div.canvasjs-chart-tooltip > div > span")))    print(mouseover.text)

上述代码中,WebDriverWait(…).until(EC.presence_of_element_located(…))返回的是一个WebElement对象,代表了单个元素,而非一个元素列表,因此直接对其进行for el in element:迭代会导致’WebElement’ object is not iterable的运行时错误。即使修正了迭代问题,模拟大量鼠标悬停操作来获取所有数据,效率也极其低下,且容易因页面加载、元素定位不准确等问题导致抓取失败。

2. 高效解决方案:直接解析JavaScript数据

对于许多动态加载的图表数据,尤其是使用JavaScript库(如CanvasJS、ECharts、Highcharts等)渲染的图表,其数据源往往在页面加载时就已经嵌入到HTML的标签中,或者通过AJAX请求获取。在这种情况下,最高效的方法是直接从网页源代码中解析这些原始数据,而不是通过模拟浏览器行为。

立即学习“Java免费学习笔记(深入)”;

通过检查目标网页的源代码(通常通过浏览器开发者工具),我们发现价格历史数据被存储在一个JavaScript变量中,以dataArray.push({x: …, y: …})的形式存在。这种结构非常适合使用正则表达式进行提取。

3. 核心代码实现与解析

以下是使用requests、re和pandas库实现高效数据抓取的完整代码:

import reimport pandas as pdimport requests# 目标网页URLurl = "https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%40+3.50GHz&id=3904"# 1. 使用requests获取网页的HTML内容# requests库可以直接获取页面的原始HTML,不执行JavaScript,速度快。html_text = requests.get(url).text# 2. 使用正则表达式从HTML中提取数据# re.findall() 用于查找所有匹配正则表达式的非重叠匹配项。# 正则表达式 r"dataArray.push({x: (d+), y: ([d.]+)}" 的解释:#   - dataArray.push({x: :匹配字面字符串 "dataArray.push({x:"。注意点号需要转义。#   - (d+):第一个捕获组,匹配一个或多个数字(对应时间戳)。#   - , y: :匹配字面字符串 ", y:"。#   - ([d.]+):第二个捕获组,匹配一个或多个数字或点(对应价格)。#   - }:匹配字面字符串 "}"。# 整个模式旨在捕获 `x` 和 `y` 括号内的值。df = pd.DataFrame(    re.findall(r"dataArray.push({x: (d+), y: ([d.]+)}", html_text),    columns=["time", "price"],)# 3. 数据类型转换与清洗# 原始的时间戳是毫秒级,需要转换为秒级后,再使用pd.to_datetime转换为日期时间格式。# astype(int) 将字符串时间戳转换为整数。# // 1000 将毫秒转换为秒。# unit="s" 指定时间单位为秒。df["time"] = pd.to_datetime(df["time"].astype(int) // 1000, unit="s")# 4. 打印处理后的数据框的尾部几行print(df.tail())

4. 运行结果展示

执行上述代码,将得到一个包含时间和价格的Pandas DataFrame,其尾部数据示例如下:

                   time   price236 2023-05-28 06:00:00  317.86237 2023-05-29 06:00:00  319.43238 2023-05-30 06:00:00  429.99239 2023-05-31 06:00:00  314.64240 2023-06-01 06:00:00   318.9

这清晰地展示了CPU价格随时间变化的趋势数据,并且以结构化的DataFrame形式方便后续分析。

5. 注意事项与适用场景

适用场景: 这种方法适用于数据已经存在于HTML源代码(通常是标签内的JavaScript变量)中的情况。许多图表库在客户端渲染前,会将数据直接嵌入页面。正则表达式的健壮性: 正则表达式依赖于目标网页的特定结构。如果网页结构或JavaScript变量命名方式发生变化,正则表达式可能需要更新。Selenium的必要性: 尽管本例中requests + re更为高效,但Selenium在以下场景仍不可或缺:数据通过AJAX异步加载,且数据接口不直接暴露或难以逆向分析。页面内容完全由JavaScript动态生成,且数据不在原始HTML中。需要模拟用户交互(如点击按钮、填写表单、滚动页面)来触发数据加载。需要处理复杂的验证码或登录流程。数据量: 对于大规模数据抓取,requests + re组合的性能远优于Selenium模拟浏览器,因为它避免了浏览器渲染的开销。网页反爬: 有些网站会检测非浏览器请求(如User-Agent、Referer等),此时可能需要在requests.get()中添加headers参数来模拟浏览器请求。

总结

当目标数据以结构化的JavaScript变量形式存在于网页源代码中时,采用requests库获取页面内容,结合re模块进行正则表达式匹配提取,再利用pandas进行数据整理,是获取图表数据的高效且稳定的最佳实践。这种方法避免了模拟鼠标悬停等复杂且低效的Selenium操作,显著提升了数据抓取的效率和稳定性。在选择抓取策略时,应首先尝试分析页面源代码,判断数据是否可以直接解析,以此作为优先方案。

以上就是如何高效抓取网页图表数据:绕过鼠标悬停,直取JavaScript变量的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1365759.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 04:47:34
下一篇 2025年12月14日 04:47:55

相关推荐

  • Pandas数据处理:基于条件筛选并按多维度分组计数

    本教程详细介绍了如何使用Pandas库对数据进行高效处理。我们将学习如何根据特定条件(如NaN值)筛选DataFrame中的行,并在此基础上,按多个维度(如空间维度和时间维度)进行分组,最终统计满足条件的记录数量。通过实际代码示例,帮助读者掌握数据清洗、筛选和聚合的关键技巧,提升数据分析能力。 在数…

    2025年12月14日
    000
  • 使用Pandas进行条件筛选与分组计数:以NaN值处理为例

    本教程详细介绍了如何使用Pandas库对DataFrame数据进行条件筛选和分组聚合。通过一个具体案例,演示了如何筛选出特定列(如NumericValue)为NaN的行,并在此基础上,按指定维度(如SpatialDim和TimeDim)进行分组,最终统计每组的记录数量,从而高效地从原始数据集中提取有…

    2025年12月14日
    000
  • 使用Pandas高效筛选缺失值并进行多维度分组计数

    本文详细介绍了如何利用Pandas库对数据集进行高效的数据检索和统计。核心内容包括:首先筛选出特定列(如NumericValue)中包含缺失值(NaN)的行,然后基于多个维度(如SpatialDim和TimeDim)对筛选后的数据进行分组,并计算每个分组的记录数量。通过实际代码示例,展示了从数据加载…

    2025年12月14日
    000
  • 如何使用 Pandas 生成 DataFrame 列的数据类型与唯一值汇总表

    本教程将详细介绍如何利用 Python 的 Pandas 库,为 DataFrame 中的所有列生成一份结构化的汇总表。该表将清晰展示每列的名称、数据类型以及其包含的唯一值(或其数量),这对于数据探索、清洗和理解数据集至关重要。 数据探索的重要性 在任何数据分析或机器学习项目中,数据探索是至关重要且…

    2025年12月14日
    000
  • Python Pandas DataFrame列信息概览:数据类型与唯一值统计

    本文详细介绍了如何使用Python Pandas库高效地为DataFrame中的所有列生成一份综合概览表。该表将展示每列的名称、数据类型以及其包含的唯一值列表及其数量。通过遍历DataFrame的列并结合Pandas内置函数,我们可以轻松构建一个结构清晰、易于分析的汇总报告,尤其适用于快速理解大型数…

    2025年12月14日
    000
  • 生成DataFrame列的综合摘要表:数据类型、唯一值与计数

    本教程详细介绍了如何利用 Pandas 库为 DataFrame 生成一个综合性的摘要表。该表能清晰地展示每列的名称、数据类型、所有唯一值及其数量,帮助用户快速理解数据结构,尤其适用于大型数据集的数据探索和预处理阶段,是数据分析初期不可或缺的工具。 引言:数据探索的基石 在数据分析和机器学习项目的初…

    2025年12月14日
    000
  • Python Pandas:高效生成DataFrame列数据类型与唯一值统计表

    本文详细介绍了如何使用Python Pandas库,为DataFrame中的所有列生成一个结构化的统计表。该表将清晰展示每列的名称、数据类型、唯一的取值及其数量,为数据探索和预处理提供直观的概览,尤其适用于处理包含大量列的数据集。 引言:数据概览的重要性 在数据分析和机器学习项目中,深入理解数据集的…

    2025年12月14日
    000
  • Python中如何识别未使用的变量和导入语句?

    识别python代码中未使用的变量和导入最直接有效的方法是使用静态代码分析工具。1. flake8是一个轻量级工具,结合pyflakes等组件,能快速识别未使用的导入(f401)和变量(f841);2. pylint则更为全面,除检测未使用代码外,还能分析代码风格、复杂度等,并提示w0611(未使用…

    2025年12月14日 好文分享
    000
  • 如何用Python检测工业控制系统的隐蔽攻击?

    1.隐蔽攻击难以发现因其低慢行为、协议滥用和目标工艺过程,2.检测需通过python实现数据采集、特征工程、模型训练和告警可视化。隐蔽攻击通过微小参数调整、合法协议的异常使用以及针对物理过程进行操作,因ics系统老旧、正常行为复杂、安全意识不足等难以被发现。python可利用scapy抓包、pand…

    2025年12月14日 好文分享
    000
  • Python怎样实现基于因果推理的异常根因分析?

    基于因果推理的异常根因分析通过构建因果图并量化因果效应,实现精准定位根本原因。其核心步骤包括:1. 数据准备与特征工程,收集系统指标并提取特征;2. 因果图构建,结合专家知识与数据驱动算法(如pc、ges)推断变量间因果关系;3. 因果效应量化,使用dowhy和econml等库估计变量对异常的影响;…

    2025年12月14日 好文分享
    000
  • 如何使用Dask实现大规模数据的分布式异常检测?

    使用Dask实现大规模数据的分布式异常检测,核心在于它能将传统上受限于单机内存和计算能力的算法,无缝扩展到分布式环境。这使得我们能够处理TB甚至PB级别的数据,而无需担心数据无法载入内存,或是计算耗时过长的问题。它提供了一个与Pandas和NumPy高度兼容的API,让数据科学家能够以熟悉的范式,构…

    2025年12月14日 好文分享
    000
  • Python如何计算移动窗口统计量?rolling函数详解

    pandas的rolling()函数用于计算移动窗口统计量,常见聚合操作有1. .mean()计算移动平均值,2. .sum()计算移动总和,3. .std()计算移动标准差,4. .min()/.max()计算极值,5. .count()计算非nan数量,6. .median()计算移动中位数;窗…

    2025年12月14日 好文分享
    000
  • Python如何实现基于神经过程的不确定性异常评分?

    基于神经过程的不确定性异常评分通过模型预测的不确定性识别异常,其实现步骤如下:1.数据准备:使用正常样本训练模型以学习正常数据分布。2.模型选择:选择cnp或np,前者简单快速,后者能学习复杂依赖关系。3.模型定义:构建编码器、聚合器(np)和解码器结构。4.损失函数:采用负对数似然(nll)训练模…

    2025年12月14日 好文分享
    000
  • Python网络爬虫:高效提取网页图表悬停数据

    本文探讨了如何高效地从网页图表中提取通常通过鼠标悬停显示的数据。针对使用Selenium进行鼠标悬停操作的局限性,文章提出了一种更优的方案:通过Python的Requests库直接获取网页源代码,并利用正则表达式解析内嵌的JavaScript数据。最后,结合Pandas库对提取的数据进行结构化处理,…

    2025年12月14日
    000
  • Pandas中如何实现数据的滚动聚类?动态分组技巧

    在pandas中实现滚动聚类的核心是使用.rolling()方法。1. 它通过定义一个滑动窗口对数据进行局部聚合,如均值、求和、标准差等;2. 支持整数或时间偏移作为窗口大小,并可通过min_periods设置有效数据点数量;3. 可结合.apply()执行自定义聚合函数;4. 与.groupby(…

    2025年12月14日 好文分享
    000
  • gRPC Python:配置重试策略中的超时时间

    本文介绍了 gRPC Python 中重试策略配置中超时时间的行为。重点说明了 timeout 配置项并非单个重试尝试的超时时间,而是整个交互过程的最大持续时间。同时解释了 gRPC 重试机制的设计理念,即不应人为缩短单次尝试的时间,以提高成功几率。 在 gRPC Python 中,配置重试策略可以…

    2025年12月14日
    000
  • gRPC Python:配置重试机制中的总超时而非单次尝试超时

    正如摘要所述,在 gRPC Python 中,配置的 timeout 并非针对每次重试的超时时间,而是整个 gRPC 调用的总超时时间。这意味着,即使配置了重试策略,每次尝试的总时间加起来也不能超过 timeout 值。 gRPC 的重试机制旨在提高在网络不稳定或服务器偶发性故障情况下的调用成功率。…

    2025年12月14日
    000
  • 配置 gRPC Python 客户端重试机制:理解超时设置

    本文旨在阐明 gRPC Python 客户端中重试机制的超时配置,重点解释 timeout 参数的作用范围,以及为何 gRPC 不支持为每次重试单独设置超时时间。通过本文,你将了解如何正确配置重试策略,并理解其设计背后的考量。 在 gRPC 中,配置客户端的重试行为,可以有效地提高应用程序的健壮性。…

    2025年12月14日
    000
  • 解决sklearn中无法导入PredictionErrorDisplay的问题

    本文旨在帮助读者解决在使用scikit-learn时遇到的ImportError: cannot import name ‘PredictionErrorDisplay’ from ‘sklearn.metrics’错误。该错误通常是由于scikit-…

    2025年12月14日
    000
  • gRPC Python:配置每次重试的超时时间

    本文介绍了在 gRPC Python 中配置重试策略时,超时设置的实际作用。重点说明了 gRPC 重试机制中不存在每次尝试的独立超时时间,而是全局的交互超时时间。解释了为何 gRPC 采用这种设计,并提供了一种变通方法,虽然并不完全等同于每次尝试的超时,但可以控制整体的重试行为。 在 gRPC Py…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信