Python网络爬虫:高效提取图表数据,告别鼠标悬停烦恼

Python网络爬虫:高效提取图表数据,告别鼠标悬停烦恼

本教程探讨了在网页爬取中,如何高效地从图表数据中提取价格和日期信息。针对传统Selenium模拟鼠标悬停的局限性,我们提出了一种更优化的方法,即通过分析页面HTML源,直接利用requests库获取页面内容,并结合正则表达式re模块精确匹配并提取JavaScript中嵌入的数据,最终使用pandas进行数据清洗和结构化,从而避免了复杂的UI交互,提高了爬取效率和稳定性。

1. 传统方法与挑战:Selenium鼠标悬停的局限性

在网页数据抓取过程中,我们经常遇到需要从图表(如股价走势图、产品价格历史图)中提取详细数据的情况。许多图表在鼠标悬停时会显示额外的工具提示信息,例如具体的日期和数值。一种直观的想法是使用自动化测试工具selenium来模拟鼠标悬停操作,然后尝试捕获弹出的文本。

例如,针对类似CPU价格历史图的场景,初学者可能会尝试以下Selenium代码:

from selenium import webdriverfrom selenium.webdriver import ActionChainsfrom selenium.webdriver.chrome.service import Servicefrom selenium.webdriver.chrome.options import Optionsfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support import expected_conditions as ECoptions = Options()options.add_argument("start-maximized")webdriver_service = Service()driver = webdriver.Chrome(options=options, service=webdriver_service)driver.get('https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%403.50GHz&id=3904')# 尝试定位图表元素element = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.XPATH, "//*[@id='placeholder']/div/canvas[2]")))# 尝试遍历元素并模拟鼠标悬停# for el in element: # 错误:element是一个WebElement对象,不可迭代#     ActionChains(driver).move_to_element(el).perform()#     mouseover = WebDriverWait(driver, 30).until(EC.visibility_of_element_located((By.CSS_SELECTOR, ".placeholder > div > div.canvasjs-chart-tooltip > div > span")))#     print(mouseover.text)

然而,上述代码段中存在一个常见错误:element变量通过EC.presence_of_element_located获取的是单个WebElement对象,而非一个列表,因此直接对其进行for循环会导致’WebElement’ object is not iterable的运行时错误。即使解决了迭代问题,通过模拟鼠标悬停来获取大量数据也存在效率低、资源消耗大、稳定性差等问题,尤其是在需要抓取图表中所有数据点时,这种方法显得非常笨重。

核心问题在于:许多看起来是动态生成的数据,实际上可能已经作为JavaScript变量或JSON对象嵌入在页面的HTML源代码中。此时,模拟用户交互是多余且低效的。

2. 优化方案:直接提取JavaScript嵌入数据

更高效、更稳定的方法是直接分析网页的HTML源代码,查找其中是否包含了我们所需的数据。如果数据以JavaScript变量的形式存在,我们可以利用requests库获取页面内容,并结合正则表达式re模块进行精确匹配和提取。

立即学习“Python免费学习笔记(深入)”;

这种方法的优势在于:

效率高: 无需启动浏览器,减少了大量的渲染和交互时间。资源消耗低: 仅进行HTTP请求和字符串处理,对系统资源占用少。稳定性好: 不受浏览器版本、驱动兼容性或UI元素定位变化的影响。

3. 实战演练:提取CPU价格历史数据

以从cpubenchmark.net网站提取CPU价格历史数据为例,我们将展示如何通过直接分析HTML源代码来获取数据。

步骤一:获取网页内容

首先,使用requests库发送HTTP GET请求,获取目标网页的完整HTML内容。

import requestsimport reimport pandas as pdurl = "https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%403.50GHz&id=3904"html_text = requests.get(url).text

步骤二:识别并提取JavaScript数据

通过浏览器开发者工具(F12)检查目标页面的“Elements”或“Sources”面板,我们会发现图表数据通常以JavaScript变量的形式存在。在该网站的案例中,数据点以dataArray.push({x: …, y: …})的格式嵌入在JavaScript脚本块中。

我们可以构建一个正则表达式来匹配并捕获这些数据:r”dataArray.push({x: (d+), y: ([d.]+)}”。

dataArray.push({x::匹配固定字符串。(d+):捕获一个或多个数字,对应时间戳(x值)。, y::匹配固定字符串。([d.]+):捕获一个或多个数字或小数点,对应价格(y值)。):匹配右括号。

使用re.findall()函数可以找到所有匹配项,并返回一个元组列表,每个元组包含捕获到的时间戳和价格。

df = pd.DataFrame(    re.findall(r"dataArray.push({x: (d+), y: ([d.]+)}", html_text),    columns=["time", "price"],)

步骤三:数据清洗与转换

提取到的时间戳通常是Unix时间戳(毫秒或秒)。我们需要将其转换为可读的日期时间格式,并将价格转换为数值类型。pandas库提供了强大的数据类型转换功能。

# 将时间戳从字符串转换为整数,并除以1000(如果原始是毫秒级时间戳),然后转换为datetime对象df["time"] = pd.to_datetime(df["time"].astype(int) // 1000, unit="s")# 将价格从字符串转换为浮点数df["price"] = df["price"].astype(float)

完整示例代码

import requestsimport reimport pandas as pd# 目标网页URLurl = "https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%403.50GHz&id=3904"# 步骤一:获取网页内容html_text = requests.get(url).text# 步骤二:识别并提取JavaScript数据# 使用正则表达式匹配 dataArray.push({x: timestamp, y: price}) 格式的数据# (d+) 捕获时间戳, ([d.]+) 捕获价格(可能包含小数)df = pd.DataFrame(    re.findall(r"dataArray.push({x: (d+), y: ([d.]+)}", html_text),    columns=["time", "price"],)# 步骤三:数据清洗与转换# 将时间戳从字符串转换为整数,并将其除以1000(如果原始是毫秒级时间戳),然后转换为datetime对象# unit='s' 表示时间戳的单位是秒df["time"] = pd.to_datetime(df["time"].astype(int) // 1000, unit="s")# 将价格从字符串转换为浮点数df["price"] = df["price"].astype(float)# 打印DataFrame的最后几行,验证数据print(df.tail())

运行结果

执行上述代码,你将获得一个包含日期和价格的DataFrame,例如:

                   time   price236 2023-05-28 06:00:00  317.86237 2023-05-29 06:00:00  319.43238 2023-05-30 06:00:00  429.99239 2023-05-31 06:00:00  314.64240 2023-06-01 06:00:00  318.90

4. 注意事项与最佳实践

适用场景判断: 这种直接提取JavaScript数据的方法适用于数据已经嵌入到初始HTML响应中的页面。如果数据是通过AJAX请求在页面加载完成后异步获取的,或者是在客户端动态计算生成的,那么requests和re可能无法直接获取到,此时仍需考虑使用Selenium、Playwright等工具来模拟浏览器环境并等待数据加载。善用开发者工具: 在进行网页爬取之前,始终建议使用浏览器的开发者工具(F12)检查页面的“Elements”、“Network”和“Source”面板。“Elements”面板可以帮助你定位HTML结构。“Network”面板可以查看页面加载过程中发出的所有HTTP请求,这对于发现AJAX请求非常有用。“Source”面板可以查看页面的JavaScript源代码,帮助你找到嵌入的数据。正则表达式的健壮性: 构建正则表达式时,要考虑目标字符串的可能变化。过于精确的正则可能在页面结构微调后失效,而过于宽松的正则可能匹配到不相关的内容。数据清洗的重要性: 原始抓取的数据可能需要进一步的清洗和格式化,例如类型转换、缺失值处理、单位统一等,pandas是处理这些任务的强大工具。遵守网站规则: 在进行任何爬取活动时,请务必遵守目标网站的robots.txt协议和使用条款,避免对网站造成不必要的负担。

总结

在网页数据抓取中,选择合适的工具和策略至关重要。对于那些将数据直接嵌入到HTML或JavaScript源代码中的图表,通过requests获取页面内容并结合re正则表达式进行直接提取,是比模拟鼠标悬停更高效、更稳定的解决方案。这种方法不仅减少了资源消耗,提高了爬取速度,也降低了因UI变化导致爬虫失效的风险。掌握这种技巧,能让你在面对复杂的网页数据时更加游刃有余。

以上就是Python网络爬虫:高效提取图表数据,告别鼠标悬停烦恼的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1365851.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 04:50:11
下一篇 2025年12月14日 04:50:23

相关推荐

  • 解析非标准配置文件的递归方法:以Lua风格数据为例

    本文旨在介绍如何使用Python解析一种非标准、类似Lua表结构的自定义配置文件。针对无法直接通过JSON或Python内置函数处理的复杂嵌套格式,我们将详细讲解一种基于递归函数的逐行解析策略,并通过示例代码展示如何构建一个能够识别键值对和嵌套字典的自定义解析器,并讨论其应用与潜在优化点。 1. 问…

    好文分享 2025年12月14日
    000
  • Python怎样检测5G网络切片中的性能异常?

    #%#$#%@%@%$#%$#%#%#$%@_23eeeb4347bdd26bfc++6b7ee9a3b755dd能有效检测5g网络切片性能异常,因其具备实时数据流分析、机器学习算法应用及多接口集成能力。1. 数据采集:通过requests、grpcio接入rest/grpc api;conflue…

    2025年12月14日 好文分享
    000
  • 如何使用Python构建工业机器人的异常轨迹检测?

    工业机器人异常轨迹检测需关注位置、速度、加速度、力矩、轨迹一致性等关键特征。1)位置和姿态数据反映空间状态,结合速度与加速度可提前预警异常;2)关节力矩和电机电流揭示内部受力变化,有助于发现机械问题;3)轨迹重复性与偏差分析确保执行任务的稳定性;4)多维特征关联性识别复杂异常模式。针对模型选择,1)…

    2025年12月14日 好文分享
    000
  • 解析非标准Python字典式配置文件:一种递归式行处理方法

    本文介绍了一种解析非标准Python字典式配置文件的有效方法。针对无法直接使用json或ast.literal_eval处理的[“key”] = value格式配置,我们提出并实现了一个递归函数,通过逐行迭代和模式匹配,精确识别并构建嵌套的配置数据结构,从而将复杂文本转换为可…

    2025年12月14日
    000
  • 解决YOLOv7中’torchvision::nms’ CUDA后端兼容性问题

    本文旨在解决在YOLOv7中运行detect.py时遇到的NotImplementedError: Could not run ‘torchvision::nms’ with arguments from the ‘CUDA’ backend错误。该错…

    2025年12月14日
    000
  • Python虚拟环境怎么用?隔离项目依赖

    python虚拟环境通过隔离项目依赖解决版本冲突问题。其核心使用流程为:①创建虚拟环境,进入项目目录后执行python3 -m venv venv;②激活环境,在macos/linux用source venv/bin/activate,windows cmd用venvscriptsactivate.…

    2025年12月14日 好文分享
    000
  • Python怎样构建基于知识图谱的异常关联推理?

    要构建基于知识图谱的异常关联推理系统,核心在于将孤立事件编织为语义网络以揭示因果链和关联模式,其步骤如下:1. 从异构数据源中整合信息并抽取实体关系,涉及规则匹配、nlp技术如ner和re;2. 构建图谱结构并选择存储方案,小规模可用networkx,大规模则用neo4j等图数据库;3. 定义异常模…

    2025年12月14日 好文分享
    000
  • 怎样用Python构建分布式异常检测系统?Dask应用

    传统异常检测方法在大数据场景下受限于内存和计算能力,难以处理海量数据,而dask通过分布式计算突破这一瓶颈。dask利用任务图和懒惰计算机制,将数据和计算分解为可并行的小任务,调度至集群执行,实现内存溢出规避和高效并行。核心技术包括dask dataframe和array用于数据处理,dask-ml…

    2025年12月14日 好文分享
    000
  • Python如何做数据清洗?预处理缺失值方法

    数据清洗中的缺失值预处理主要包括识别、分析、选择策略并执行。1. 识别缺失值:使用isnull()或isna()判断缺失情况,并用sum()统计缺失数量。2. 分析缺失模式:判断缺失是否随机,是否与其他列有关联。3. 选择处理策略:包括删除(dropna)和填充(fillna)。删除适用于缺失值较少…

    2025年12月14日 好文分享
    000
  • 如何用Dask实现TB级数据的分布式异常扫描?

    dask处理tb级数据的分布式异常扫描的核心优势在于其分布式计算和惰性计算机制。1. 分布式计算突破单机内存限制,将数据拆分为多个分区并行处理;2. 惰性计算避免一次性加载全部数据,按需执行任务;3. 与pandas、numpy、scikit-learn等python生态无缝集成,降低学习成本;4.…

    2025年12月14日 好文分享
    000
  • Python中如何检测高维数据的局部异常模式?

    在python中检测高维数据的局部异常模式,推荐使用局部异常因子(lof)算法;2. lof通过比较样本点与其k近邻的局部可达密度(lrd)来识别异常,lof值远大于1表示该点为局部异常;3. 实际操作步骤包括:生成高维数据、初始化并训练lof模型、根据lof分数识别异常点;4. lof的关键参数包…

    2025年12月14日 好文分享
    000
  • Python多线程如何实现?并发编程入门指南

    python多线程并不能真正实现并行计算,尤其在cpu密集型任务中,由于全局解释器锁(gil)的存在,多线程无法同时利用多个cpu核心,因此大多数情况下不能提高程序运行速度;但在i/o密集型任务中,如网络请求、文件读写等,线程在等待i/o时会释放gil,从而实现“并发”提升效率;1. 多线程适用于i…

    2025年12月14日 好文分享
    000
  • Python怎样检测数据中的上下文异常?条件概率法

    条件概率法在上下文异常检测中有效,因为它直接评估数据点在特定上下文下的出现概率,从而识别出在孤立状态下正常但在特定语境下异常的数据点。1. 首先定义上下文,需结合领域知识,如时间窗口、环境参数等;2. 建立模型估计条件概率p(数据点|上下文),离散数据可用频率统计,连续数据可用kde或gmm等方法;…

    2025年12月14日 好文分享
    000
  • Python如何实现快速排序?分治算法解析

    快速排序在python中的核心思想是“分而治之”。1. 它通过选择一个“基准”元素,将数组分为小于基准和大于基准的两部分;2. 然后递归地对这两部分继续排序,直到整个数组有序;3. 实现中使用主函数quick_sort和递归辅助函数_quick_sort_recursive,分区函数_partiti…

    2025年12月14日 好文分享
    000
  • Python怎样计算数据的几何平均数?

    在python中计算几何平均数,推荐使用scipy.stats.gmean函数,也可通过数学方法手动实现。1. 使用scipy.stats.gmean:直接调用该函数可高效处理数据列表或numpy数组,适用于正数数据集。2. 手动实现:基于对数转换,使用math库计算log和exp,避免浮点数溢出问…

    2025年12月14日 好文分享
    000
  • Python中如何识别可能的内存密集型操作?

    python程序中内存密集型操作的识别和优化需从数据结构、函数调用、i/o模式、对象生命周期等多个维度入手。1. 首先,关注大规模数据结构的使用,如巨型列表或字典,应考虑分批处理或使用生成器。2. 其次,频繁的字符串拼接会导致大量临时对象产生,建议使用join()方法。3. 对象的引用和生命周期管理…

    2025年12月14日 好文分享
    000
  • 使用Python解析自定义配置文件:一种递归方法

    本文旨在介绍一种高效且灵活的Python递归解析方法,用于处理非标准、类字典格式的配置文件。通过逐行读取文件内容,并利用递归函数处理嵌套结构,该方法能够准确地将自定义格式的数据转换为Python字典,尤其适用于处理键值对以[“key”] = value形式表示,且包含布尔值、…

    2025年12月14日
    000
  • 解析类Lua配置文件的Python实现

    本文详细介绍了如何使用Python解析一种非标准、类Lua语法的配置文件。针对传统方法如json或ast.literal_eval的局限性,文章提出了一种基于递归函数和行迭代的解析策略,能够有效处理嵌套字典结构,并提供了完整的代码示例和使用说明,旨在帮助开发者灵活读取自定义格式的配置数据。 理解自定…

    2025年12月14日
    000
  • Python机器学习怎么入门?Scikit-learn基础

    1.入门python机器学习需掌握数据处理基础、机器学习核心概念和scikit-learn工具;2.需熟悉python语法、anaconda环境、jupyter notebook及numpy、pandas库;3.scikit-learn提供统一api,简化模型训练流程,封装复杂性并提供丰富工具集;4…

    2025年12月14日 好文分享
    000
  • Python中如何构建基于电流的伺服电机故障诊断?

    python构建基于电流的伺服电机故障诊断流程分为四步:数据采集、特征提取、模型训练和故障分类。首先选择高精度、合适量程和采样频率的电流传感器,如霍尔效应传感器或分流器,并确保足够带宽。其次通过时域、频域或时频分析提取电流特征,如均值、傅里叶频谱或小波变换结果,并利用pca或lda进行特征选择。然后…

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信