使用Python爬取Yahoo财经动态收益数据教程

使用Python爬取Yahoo财经动态收益数据教程

本教程旨在解决使用python爬取yahoo财经动态加载收益数据时遇到的挑战。传统基于`beautifulsoup`的静态html解析方法在此类场景中无效。文章将详细指导如何通过模拟浏览器对yahoo财经后端api的post请求,获取包含公司名称、事件类型和发布时间等详细收益信息的结构化json数据,并提供了完整的python代码示例及注意事项。

动态网页数据抓取的挑战

在尝试从Yahoo财经等现代网站抓取数据时,开发者常会遇到一个问题:即使使用requests库成功获取了页面内容,BeautifulSoup也无法找到预期的元素。这通常是因为网站采用了JavaScript动态加载数据。用户在浏览器中看到的实时数据并非直接嵌入在初始HTML中,而是通过JavaScript在页面加载后向后端API发起请求,并将返回的数据渲染到页面上。

对于Yahoo财经的收益日历页面,直接解析其HTML (https://finance.yahoo.com/calendar/earnings?day={date}) 往往只能获取到页面的静态骨架,而实际的收益数据(如公司名称、收益发布时间等)则是由JavaScript异步加载的。因此,传统的requests + BeautifulSoup组合无法直接获取到这些动态数据。

解决方案:模拟API请求

要成功抓取动态加载的数据,我们需要模拟浏览器发起的实际API请求。这通常涉及以下步骤:

识别API端点: 使用浏览器的开发者工具(通常是F12),在“网络”或“Network”选项卡中监控页面加载过程。当页面显示出目标数据时,查找类型为XHR/Fetch的请求,这些请求通常会返回JSON或XML格式的数据。分析请求参数: 检查识别出的API请求的URL、请求方法(GET/POST)、请求头(Headers)、查询参数(Query Parameters)以及请求体(Request Payload)。这些信息对于成功模拟请求至关重要。构建Python请求: 使用requests库根据分析结果构建并发送请求。

通过对Yahoo财经收益日历页面的分析,可以发现其动态数据是通过向 https://query2.finance.yahoo.com/v1/finance/visualization 这个API端点发送 POST 请求获取的。

立即学习“Python免费学习笔记(深入)”;

构建API请求详情

模拟Yahoo财经API请求需要以下几个关键组成部分:

1. 请求头 (Headers)

User-Agent 是一个重要的请求头,它告诉服务器发起请求的客户端类型。模拟一个常见的浏览器User-Agent可以有效避免某些网站的简单反爬机制。

headers = {    "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0",}

2. 查询参数 (URL Parameters)

URL中包含一些查询参数,这些参数通常用于指定语言、地区等信息。crumb 参数是一个安全令牌,它可能会随时间变化。在实际生产环境中,可能需要先从页面动态获取此crumb值。

params = {    "crumb": "EwuCwsPbKM2", # 此值可能需要动态获取    "lang": "en-US",    "region": "US",    "corsDomain": "finance.yahoo.com",}

3. JSON请求体 (Request Payload)

这是最核心的部分,它定义了要查询的数据类型、字段、过滤条件(如日期范围、地区)和排序方式。

entityIdType: 指定查询实体类型,此处为”earnings”。includeFields: 一个列表,包含我们希望从API响应中获取的字段,例如ticker (股票代码), companyshortname (公司简称), eventname (事件名称), startdatetime (开始日期时间), `epsestimate (EPS预估)等。offset, size: 用于分页,offset表示偏移量,size表示每页返回的记录数。query: 这是一个嵌套的字典,定义了数据过滤逻辑。operands: 一个列表,每个元素定义一个过滤条件。例如,{“operands”: [“startdatetime”, “2023-12-15”], “operator”: “gte”} 表示startdatetime大于或等于2023-12-15。{“operands”: [“startdatetime”, “2023-12-16”], “operator”: “lt”} 表示startdatetime小于2023-12-16。{“operands”: [“region”, “us”], “operator”: “eq”} 表示region等于us。operator: 将多个条件组合起来的逻辑操作符,此处为”and”。sortField, sortType: 定义结果的排序字段和排序方式。

query = {    "entityIdType": "earnings",    "includeFields": [        "ticker",        "companyshortname",        "eventname",        "startdatetime",        "startdatetimetype",        "epsestimate",        "epsactual",        "epssurprisepct",        "timeZoneShortName",        "gmtOffsetMilliSeconds",    ],    "offset": 0,    "query": {        "operands": [            {"operands": ["startdatetime", "2023-12-15"], "operator": "gte"}, # 查询开始日期            {"operands": ["startdatetime", "2023-12-16"], "operator": "lt"},  # 查询结束日期 (不包含)            {"operands": ["region", "us"], "operator": "eq"},        ],        "operator": "and",    },    "size": 100,    "sortField": "companyshortname",    "sortType": "ASC",}

4. Cookie

A3 cookie是另一个重要的组成部分,它可能与用户会话或认证有关。与crumb类似,这个cookie的值也可能动态变化,需要特别注意。在提供的示例中,它被硬编码,但在实际应用中,更稳健的方法是在每次请求前获取最新的A3 cookie。

# 此cookie值可能随时间变化,需要定期更新或动态获取cookie = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg"

完整代码示例

结合以上分析,我们可以构建一个完整的Python脚本来抓取指定日期的Yahoo财经收益数据。

import requestsfrom datetime import date, timedeltadef get_yahoo_earnings(target_date: date):    """    从Yahoo财经API获取指定日期的收益数据。    Args:        target_date (date): 要查询的日期对象。    Returns:        list: 包含收益数据字典的列表,如果请求失败则返回空列表。    """    headers = {        "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:120.0) Gecko/20100101 Firefox/120.0",    }    url = "https://query2.finance.yahoo.com/v1/finance/visualization"    # crumb参数可能需要动态获取,此处为示例值    params = {        "crumb": "EwuCwsPbKM2", # 注意:此值可能失效,需要从Yahoo页面动态抓取        "lang": "en-US",        "region": "US",        "corsDomain": "finance.yahoo.com",    }    # 构建查询日期范围    start_date_str = target_date.strftime("%Y-%m-%d")    end_date_str = (target_date + timedelta(days=1)).strftime("%Y-%m-%d")    query = {        "entityIdType": "earnings",        "includeFields": [            "ticker",            "companyshortname",            "eventname",            "startdatetime",            "startdatetimetype",            "epsestimate",            "epsactual",            "epssurprisepct",            "timeZoneShortName",            "gmtOffsetMilliSeconds",        ],        "offset": 0,        "query": {            "operands": [                {"operands": ["startdatetime", start_date_str], "operator": "gte"},                {"operands": ["startdatetime", end_date_str], "operator": "lt"},                {"operands": ["region", "us"], "operator": "eq"},            ],            "operator": "and",        },        "size": 100, # 可根据需要调整每页返回数量        "sortField": "companyshortname",        "sortType": "ASC",    }    # A3 cookie也可能失效,需要动态获取    cookie = "d=AQABBK8KXmQCEA8-VE0dBLqG5QEpQ7OglmEFEgABCAHCeWWpZfNtb2UB9qMAAAcIqgpeZJj7vK8&S=AQAAAqhyTAOrxcxONc4ktfzCOkg"    earnings_data = []    with requests.Session() as s:        s.headers.update(headers)        s.cookies["A3"] = cookie # 设置A3 cookie        try:            response = s.post(url, params=params, json=query)            response.raise_for_status()  # 检查HTTP错误            data = response.json()            if data and "finance" in data and "result" in data["finance"] and                data["finance"]["result"] and data["finance"]["result"][0]["documents"]:                for doc in data["finance"]["result"][0]["documents"]:                    if "rows" in doc:                        for r in doc["rows"]:                            # 提取并格式化数据                            company_name = r[1] if len(r) > 1 else ""                            event_name = r[2] if len(r) > 2 and r[2] else ""                            start_datetime = r[3] if len(r) > 3 else ""                            earnings_data.append({                                "company_name": company_name,                                "event_name": event_name,                                "start_datetime": start_datetime                            })            else:                print(f"API响应中未找到预期数据结构: {data}")        except requests.exceptions.RequestException as e:            print(f"请求失败: {e}")        except ValueError as e:            print(f"JSON解析错误: {e}")    return earnings_dataif __name__ == "__main__":    # 获取昨天的日期 (假设今天是周日,昨天是周六,我们需要周五的收益)    # 实际应用中,可以直接指定日期    today = date.today()    # 调整为上一个工作日,例如,如果今天是周日,则获取上周五的日期    target_date = today - timedelta(days=2) # 示例:如果今天是周日,这将是周五    print(f"尝试获取 {target_date.strftime('%Y-%m-%d')} 的收益数据...")    earnings = get_yahoo_earnings(target_date)    if earnings:        print(f"n{target_date.strftime('%Y-%m-%d')} 收益数据:")        for item in earnings:            print(f"{item['company_name']:<40} {item['event_name']:<40} {item['start_datetime']:<30}")    else:        print(f"未能获取 {target_date.strftime('%Y-%m-%d')} 的收益数据。")    # 示例:获取特定日期的收益    specific_date = date(2023, 12, 15)    print(f"n尝试获取 {specific_date.strftime('%Y-%m-%d')} 的收益数据...")    earnings_specific = get_yahoo_earnings(specific_date)    if earnings_specific:        print(f"n{specific_date.strftime('%Y-%m-%d')} 收益数据:")        for item in earnings_specific:            print(f"{item['company_name']:<40} {item['event_name']:<40} {item['start_datetime']:<30}")    else:        print(f"未能获取 {specific_date.strftime('%Y-%m-%d')} 的收益数据。")

示例输出 (根据实际API响应可能有所不同):

尝试获取 2023-12-15 的收益数据...2023-12-15 收益数据:Lewis and Clark Bank                     Q3 2023  Earnings Release                2023-12-15T13:10:00.000Z      Alzamend Neuro, Inc.                                                              2023-12-15T16:32:00.000Z      ATIF Holdings Ltd                        Q1 2024  Earnings Release                2023-12-15T21:00:00.000Z      Barnwell Industries Inc                  Q4 2023  Earnings Release                2023-12-15T23:05:13.000Z      Quanex Building Products Corp            Q4 2023  Earnings Call                   2023-12-15T16:00:00.000Z      PharmaCyte Biotech, Inc.                                                          2023-12-15T17:27:00.000Z      Edesa Biotech, Inc.                                                               2023-12-15T16:10:00.000Z      Butler National Corporation                                                       2023-12-15T09:47:00.000Z      Enzo Biochem, Inc.                                                                2023-12-15T16:17:00:00.000Z      Everything Blockchain Inc                Q3 2024  Earnings Release                2023-12-15T21:05:00.000Z      ... (更多数据)

注意事项与最佳实践

动态crumb和cookie的处理: 示例代码中的crumb和A3 cookie是硬编码的。这些值可能会随时间变化或因用户会话而异。在生产环境中,建议实现一个机制来动态获取这些值。这通常涉及:首先对Yahoo财经日历页面进行一次GET请求。使用BeautifulSoup或正则表达式从响应HTML中提取crumb值。从requests响应对象中获取并设置A3 cookie。或者,使用如Selenium等无头浏览器库来模拟完整的浏览器行为,让其自动处理cookie和JavaScript渲染。日期处理: query参数中的startdatetime是UTC时间。在构建查询时,请确保日期字符串格式正确 (YYYY-MM-DD),并考虑时区转换,以获取目标区域的准确日期数据。错误处理: 务必添加健壮的错误处理机制,包括网络请求失败、JSON解析失败以及API响应结构不符合预期的情况。速率限制与IP封锁: 频繁或高速的请求可能会触发网站的速率限制,导致IP被暂时或永久封锁。建议在请求之间添加适当的延迟 (time.sleep()),并考虑使用代理IP池。数据字段: includeFields列表可以根据需要进行调整,以获取更多或更少的数据字段。分页处理: 如果某一天的收益数据量超过size参数(例如100条),你需要通过调整offset参数来多次请求,以获取所有数据。

总结

通过模拟Yahoo财经的后端API请求,我们可以有效地绕过前端JavaScript渲染的限制,直接获取结构化的动态数据。这种方法比传统的BeautifulSoup解析更稳定、更高效,并且能够获取更精确的数据。然而,动态参数(如crumb和cookie)的管理是实现健壮爬虫的关键挑战,需要开发者投入额外精力进行动态获取和维护。遵循上述最佳实践,可以帮助您构建一个稳定且高效的Yahoo财经收益数据爬虫。

以上就是使用Python爬取Yahoo财经动态收益数据教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1378603.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 19:56:23
下一篇 2025年12月14日 19:56:42

相关推荐

  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • 正则表达式在文本验证中的常见问题有哪些?

    正则表达式助力文本输入验证 在文本输入框的验证中,经常遇到需要限定输入内容的情况。例如,输入框只能输入整数,第一位可以为负号。对于不会使用正则表达式的人来说,这可能是个难题。下面我们将提供三种正则表达式,分别满足不同的验证要求。 1. 可选负号,任意数量数字 如果输入框中允许第一位为负号,后面可输入…

    2025年12月24日
    000
  • 如何在 VS Code 中解决折叠代码复制问题?

    解决 VS Code 折叠代码复制问题 在 VS Code 中使用折叠功能可以帮助组织长代码,但使用复制功能时,可能会遇到只复制可见部分的问题。以下是如何解决此问题: 当代码被折叠时,可以使用以下简单操作复制整个折叠代码: 按下 Ctrl + C (Windows/Linux) 或 Cmd + C …

    2025年12月24日
    000
  • 为什么多年的经验让我选择全栈而不是平均栈

    在全栈和平均栈开发方面工作了 6 年多,我可以告诉您,虽然这两种方法都是流行且有效的方法,但它们满足不同的需求,并且有自己的优点和缺点。这两个堆栈都可以帮助您创建 Web 应用程序,但它们的实现方式却截然不同。如果您在两者之间难以选择,我希望我在两者之间的经验能给您一些有用的见解。 在这篇文章中,我…

    2025年12月24日
    000
  • 姜戈顺风

    本教程演示如何在新项目中从头开始配置 django 和 tailwindcss。 django 设置 创建一个名为 .venv 的新虚拟环境。 # windows$ python -m venv .venv$ .venvscriptsactivate.ps1(.venv) $# macos/linu…

    2025年12月24日
    000
  • 花 $o 学习这些编程语言或免费

    → Python → JavaScript → Java → C# → 红宝石 → 斯威夫特 → 科特林 → C++ → PHP → 出发 → R → 打字稿 []https://x.com/e_opore/status/1811567830594388315?t=_j4nncuiy2wfbm7ic…

    2025年12月24日
    000
  • 为什么前端固定定位会发生移动问题?

    前端固定定位为什么会出现移动现象? 在进行前端开发时,我们经常会使用CSS中的position属性来控制元素的定位。其中,固定定位(position: fixed)是一种常用的定位方式,它可以让元素相对于浏览器窗口进行定位,保持在页面的固定位置不动。 然而,有时候我们会遇到一个问题:在使用固定定位时…

    2025年12月24日
    000
  • 学会从头开始学习CSS,掌握制作基本网页框架的技巧

    从零开始学习CSS,掌握网页基本框架制作技巧 前言: 在现今互联网时代,网页设计和开发是一个非常重要的技能。而学习CSS(层叠样式表)是掌握网页设计的关键之一。CSS不仅可以为网页添加样式和布局,还可以为用户呈现独特且具有吸引力的页面效果。在本文中,我将为您介绍一些基本的CSS知识,以及一些常用的代…

    2025年12月24日
    200
  • 从初学到专业:掌握这五种前端CSS框架

    CSS是网站设计中重要的一部分,它控制着网站的外观和布局。前端开发人员为了让页面更加美观和易于使用,通常使用CSS框架。这篇文章将带领您了解这五种前端CSS框架,从入门到精通。 Bootstrap Bootstrap是最受欢迎的CSS框架之一。它由Twitter公司开发,具有可定制的响应式网格系统、…

    2025年12月24日
    200
  • 揭秘Web标准涵盖的语言:了解网页开发必备的语言范围

    在当今数字时代,互联网成为了人们生活中不可或缺的一部分。作为互联网的基本构成单位,网页承载着我们获取和分享信息的重要任务。而网页开发作为一门独特的技术,离不开一些必备的语言。本文将揭秘Web标准涵盖的语言,让我们一起了解网页开发所需的语言范围。 首先,HTML(HyperText Markup La…

    2025年12月24日
    000
  • 克服害怕做选择的恐惧症:这五个前端CSS框架将为你解决问题

    选择恐惧症?这五个前端CSS框架能帮你解决问题 近年来,前端开发者已经进入了一个黄金时代。随着互联网的快速发展,人们对于网页设计和用户体验的要求也越来越高。然而,要想快速高效地构建出漂亮的网页并不容易,特别是对于那些可能对CSS编码感到畏惧的人来说。所幸的是,前端开发者们早已为我们准备好了一些CSS…

    2025年12月24日
    200
  • 揭开Web开发的语言之谜:了解构建网页所需的语言有哪些?

    Web标准中的语言大揭秘:掌握网页开发所需的语言有哪些? 随着互联网的快速发展,网页开发已经成为人们重要的职业之一。而要成为一名优秀的网页开发者,掌握网页开发所需的语言是必不可少的。本文将为大家揭示Web标准中的语言大揭秘,介绍网页开发所需的主要语言。 HTML(超文本标记语言)HTML是网页开发的…

    2025年12月24日
    400
  • 常用的网页开发语言:了解Web标准的要点

    了解Web标准的语言要点:常见的哪些语言应用在网页开发中? 随着互联网的不断发展,网页已经成为人们获取信息和交流的重要途径。而要实现一个高质量、易用的网页,离不开一种被广泛接受的Web标准。Web标准的制定和应用,涉及到多种语言和技术,本文将介绍常见的几种语言在网页开发中的应用。 首先,HTML(H…

    2025年12月24日
    000
  • 网页开发中常见的Web标准语言有哪些?

    探索Web标准语言的世界:网页开发中常用的语言有哪些? 在现代社会中,互联网的普及程度越来越高,网页已成为人们获取资讯、娱乐、交流的重要途径。而网页的开发离不开各种编程语言的应用和支持。在这个虚拟世界的网络,有许多被广泛应用的标准化语言,用于为用户提供优质的网页体验。本文将探索网页开发中常用的语言,…

    2025年12月24日
    000
  • 深入探究Web标准语言的范围,涵盖了哪些语言?

    Web标准是指互联网上的各个网页所需遵循的一系列规范,确保网页在不同的浏览器和设备上能够正确地显示和运行。这些标准包括HTML、CSS和JavaScript等语言。本文将深入解析Web标准涵盖的语言范围。 首先,HTML(HyperText Markup Language)是构建网页的基础语言。它使…

    2025年12月24日
    000
  • 深入理解CSS框架与JS之间的关系

    深入理解CSS框架与JS之间的关系 在现代web开发中,CSS框架和JavaScript (JS) 是两个常用的工具。CSS框架通过提供一系列样式和布局选项,可以帮助我们快速构建美观的网页。而JS则提供了一套功能强大的脚本语言,可以为网页添加交互和动态效果。本文将深入探讨CSS框架和JS之间的关系,…

    2025年12月24日
    000
  • 项目实践:如何结合CSS和JavaScript打造优秀网页的经验总结

    项目实践:如何结合CSS和JavaScript打造优秀网页的经验总结 随着互联网的快速发展,网页设计已经成为了各行各业都离不开的一项技能。优秀的网页设计可以给用户留下深刻的印象,提升用户体验,增加用户的黏性和转化率。而要做出优秀的网页设计,除了对美学的理解和创意的运用外,还需要掌握一些基本的技能,如…

    2025年12月24日
    200
  • CSS 超链接属性解析:text-decoration 和 color

    CSS 超链接属性解析:text-decoration 和 color 超链接是网页中常用的元素之一,它能够在不同页面之间建立连接。为了使超链接在页面中有明显的标识和吸引力,CSS 提供了一些属性来调整超链接的样式。本文将重点介绍 text-decoration 和 color 这两个与超链接相关的…

    2025年12月24日
    000
  • is与where选择器:提升前端编程效率的秘密武器

    is与where选择器:提升前端编程效率的秘密武器 在前端开发中,选择器是一种非常重要的工具。它们用于选择文档中的元素,从而对其进行操作和样式设置。随着前端技术的不断发展,选择器也在不断演化。而其中,is与where选择器成为了提升前端编程效率的秘密武器。 is选择器是CSS Selectors L…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信