使用Python和Selenium抓取动态网页数据教程

使用Python和Selenium抓取动态网页数据教程

本教程旨在指导读者如何使用python结合selenium和beautifulsoup库,有效抓取包含切换按钮等动态交互元素的网页数据。文章将详细阐述传统静态网页抓取方法在处理此类场景时的局限性,并提供一套完整的解决方案,通过模拟用户浏览器行为来获取动态加载的内容,最终实现对目标数据的精确提取。

在现代网页应用中,许多内容并非在页面首次加载时就全部呈现,而是通过JavaScript动态生成或在用户交互(如点击按钮、滚动页面)后加载。对于这类动态网页,仅依赖requests库获取原始HTML并结合BeautifulSoup进行解析的方法往往会失效,因为它只能获取到页面初始的静态内容,而无法捕获JavaScript执行后的变化。本教程将以抓取一个包含“每场比赛数据”切换按钮的体育统计网站为例,详细介绍如何利用Selenium模拟浏览器行为,进而获取动态数据。

理解动态网页抓取的挑战

当目标网站(例如https://www.sports-reference.com/cbb/seasons/men/2024-school-stats.html)中的数据需要通过点击一个切换按钮(如“Per Game”与“Total Stats”之间的切换)才能显示时,requests库获取的HTML源代码将只包含默认状态下的数据。这是因为JavaScript负责处理按钮点击事件并更新DOM,而requests不执行JavaScript。此时,我们需要一个能够模拟真实浏览器环境并执行JavaScript的工具——Selenium。

引入Selenium进行浏览器自动化

Selenium是一个强大的Web自动化测试工具,但它也能被广泛用于网页抓取。通过Selenium,我们可以启动一个真实的浏览器实例(如Chrome、Firefox),控制其导航到指定URL,模拟用户点击、输入等交互行为,并最终获取到JavaScript执行后的页面内容。

1. 环境准备

首先,确保你的Python环境中安装了必要的库:

立即学习“Python免费学习笔记(深入)”;

pip install selenium beautifulsoup4 pandas requests

此外,你需要下载对应浏览器的WebDriver。以Chrome为例,你需要下载chromedriver,并将其放置在系统PATH中,或者在代码中指定其路径。chromedriver的版本必须与你安装的Chrome浏览器版本相匹配。

2. 初始化WebDriver

在使用Selenium之前,需要初始化一个WebDriver实例。这里我们以Chrome为例:

from selenium import webdriverfrom selenium.webdriver.chrome.options import Options# 配置Chrome选项chrome_options = Options()# 可以选择添加无头模式,使浏览器在后台运行,不显示GUI# chrome_options.add_argument('--headless')# 最大化窗口,有时有助于确保元素可见chrome_options.add_argument('--start-maximized')# 禁用GPU加速,在某些环境下可能避免问题chrome_options.add_argument('--disable-gpu')# 禁用沙箱模式,在某些Linux环境中可能需要# chrome_options.add_argument('--no-sandbox')# 初始化Chrome WebDriver# 如果chromedriver不在PATH中,需要指定executable_pathdriver = webdriver.Chrome(options=chrome_options)

3. 导航到目标URL

使用driver.get()方法让浏览器导航到目标网页:

url = 'https://www.sports-reference.com/cbb/seasons/men/2024-school-stats.html'driver.get(url)

4. 定位并模拟点击切换按钮

这是抓取动态内容的关键步骤。我们需要找到负责切换“Per Game”数据的按钮,并模拟点击它。为了确保页面元素已经加载完成,我们应该使用显式等待(WebDriverWait)。

首先,通过浏览器开发者工具检查目标按钮的HTML结构,找到其唯一的标识符(如ID、class或XPath)。在本例中,切换“每场比赛数据”的按钮ID为basic_school_stats_per_match_toggle。

from selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support import expected_conditions as EC# 设置显式等待,最长等待20秒wait = WebDriverWait(driver, 20)# 等待切换按钮出现并可点击# 使用By.ID定位元素toggle_button = wait.until(EC.element_to_be_clickable((By.ID, 'basic_school_stats_per_match_toggle')))# 模拟点击按钮# 可以直接使用 .click() 方法toggle_button.click()# 或者使用JavaScript执行点击,有时更稳定# driver.execute_script("arguments[0].click();", toggle_button)# 等待页面内容更新,例如等待某个关键元素出现或数据加载完成# 这里我们假设点击后数据会立即更新,如果页面有异步加载,可能需要更长的等待或等待特定数据元素wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, 'table.modified'))) # 假设表格内容会更新

5. 获取更新后的页面HTML

按钮点击并页面内容更新后,我们可以通过driver.page_source获取当前页面的完整HTML源代码,其中包含了动态加载的数据。

html_source = driver.page_source

6. 关闭WebDriver

完成操作后,务必关闭浏览器实例以释放资源:

driver.quit()

使用BeautifulSoup解析动态内容

现在我们已经获得了包含动态数据的HTML源代码,接下来的步骤与静态网页抓取类似,使用BeautifulSoup进行解析和数据提取。

from bs4 import BeautifulSoupimport pandas as pddef parse_dynamic_html(html_content):    soup = BeautifulSoup(html_content, 'html.parser')    # 尝试找到包含统计数据的表格    # 根据页面结构,这里可能需要更精确的定位    table = soup.find('table', class_='modified') # 假设切换后表格的class是'modified'    if not table:        print("未找到目标表格。")        return []    team_stats_list = []    # 提取表头    headers = [th.text.strip() for th in table.find('thead').find_all('th') if th.text.strip()]    # 遍历表格的每一行数据    for row in table.find('tbody').find_all('tr'):        # 排除可能是表头的行,或者根据实际情况调整        if row.find('th', {'data-stat': 'ranker'}): # 跳过排名行            continue        team_data = {}        # 遍历行中的每个数据单元格        for cell in row.find_all(['th', 'td']): # th可能包含队伍名称            stat_name = cell.get('data-stat')            if stat_name:                team_data[stat_name] = cell.text.strip()        # 过滤并提取我们需要的“每场比赛”数据        if team_data.get('school_name'): # 确保是有效数据行            extracted_stats = {                'Team': team_data.get('school_name', 'N/A'),                'FG%': team_data.get('fg_pct', 'N/A'),                'ORB/G': team_data.get('orb_per_g', 'N/A'), # 注意这里是per_g后缀                'AST/G': team_data.get('ast_per_g', 'N/A'),                'STL/G': team_data.get('stl_per_g', 'N/A'),                'BLK/G': team_data.get('blk_per_g', 'N/A'),                'TOV/G': team_data.get('tov_per_g', 'N/A'),                'PF/G': team_data.get('pf_per_g', 'N/A')            }            team_stats_list.append(extracted_stats)    return team_stats_list# 将数据转换为DataFrame并保存def save_to_csv(data, filename='team_per_game_stats.csv'):    if data:        df = pd.DataFrame(data)        df.to_csv(filename, index=False, encoding='utf-8')        print(f"数据已成功保存到 {filename}")    else:        print("没有数据可保存。")

完整代码示例

将上述步骤整合,形成一个完整的抓取脚本:

from selenium import webdriverfrom selenium.webdriver.chrome.options import Optionsfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support import expected_conditions as ECfrom bs4 import BeautifulSoupimport pandas as pdimport timedef scrape_dynamic_sports_stats(url):    chrome_options = Options()    # 启用无头模式,在后台运行浏览器,不显示图形界面    chrome_options.add_argument('--headless')     chrome_options.add_argument('--start-maximized')    chrome_options.add_argument('--disable-gpu')    chrome_options.add_argument('--no-sandbox') # 适用于某些Linux环境    driver = None    try:        driver = webdriver.Chrome(options=chrome_options)        print(f"导航到URL: {url}")        driver.get(url)        wait = WebDriverWait(driver, 20) # 最长等待20秒        # 等待并点击“Per Game”切换按钮        # 按钮ID是 'basic_school_stats_per_match_toggle'        toggle_button_id = 'basic_school_stats_per_match_toggle'        print(f"尝试定位并点击切换按钮 (ID: {toggle_button_id})...")        toggle_button = wait.until(EC.element_to_be_clickable((By.ID, toggle_button_id)))        toggle_button.click()        print("切换按钮点击成功。")        # 给予页面一些时间来加载和渲染新的数据        time.sleep(3)         # 获取更新后的页面HTML        html_source = driver.page_source        print("成功获取动态页面HTML。")        # 使用BeautifulSoup解析HTML        soup = BeautifulSoup(html_source, 'html.parser')        # 找到目标表格        table = soup.find('table', class_='modified') # 根据页面检查,切换后的表格class可能仍然是modified        if not table:            print("错误:未找到目标统计表格。")            return []        team_stats_list = []        # 遍历表格行,提取数据        for row in table.find('tbody').find_all('tr'):            team_data = {}            # 确保只处理包含数据的行            if row.find('th', {'data-stat': 'ranker'}): # 跳过表头或非数据行                continue            for cell in row.find_all(['th', 'td']):                stat_name = cell.get('data-stat')                if stat_name:                    team_data[stat_name] = cell.text.strip()            # 提取我们关心的“每场比赛”数据            if team_data.get('school_name'):                extracted_stats = {                    'Team': team_data.get('school_name', 'N/A'),                    'FG%': team_data.get('fg_pct', 'N/A'),                    'ORB/G': team_data.get('orb_per_g', 'N/A'),                     'AST/G': team_data.get('ast_per_g', 'N/A'),                    'STL/G': team_data.get('stl_per_g', 'N/A'),                    'BLK/G': team_data.get('blk_per_g', 'N/A'),                    'TOV/G': team_data.get('tov_per_g', 'N/A'),                    'PF/G': team_data.get('pf_per_g', 'N/A')                }                team_stats_list.append(extracted_stats)        return team_stats_list    except Exception as e:        print(f"抓取过程中发生错误: {e}")        return []    finally:        if driver:            driver.quit() # 确保在任何情况下都关闭浏览器# 主程序执行if __name__ == "__main__":    target_url = 'https://www.sports-reference.com/cbb/seasons/men/2024-school-stats.html'    per_game_stats = scrape_dynamic_sports_stats(target_url)    if per_game_stats:        df = pd.DataFrame(per_game_stats)        csv_filename = 'team_per_game_stats_dynamic.csv'        df.to_csv(csv_filename, index=False, encoding='utf-8')        print(f"数据已成功保存到 {csv_filename}")    else:        print("未获取到任何数据。")

注意事项与最佳实践

WebDriver路径: 确保chromedriver(或其他浏览器驱动)的版本与你的浏览器版本匹配,并正确配置其路径。显式等待: 使用WebDriverWait和expected_conditions是处理动态网页的关键。它能让你的脚本在元素出现或变得可交互时才继续执行,避免因页面加载速度不一导致的错误。隐式等待: driver.implicitly_wait(seconds)可以设置一个全局的等待时间,WebDriver会在查找元素时等待指定时间,直到元素出现。但显式等待通常更精确。无头模式: 在生产环境中,建议使用–headless选项启动浏览器,这样浏览器会在后台运行,不显示图形界面,可以提高效率并减少资源消耗。User-Agent: 虽然Selenium模拟真实浏览器,但在某些情况下,网站仍可能通过JavaScript检测到自动化行为。设置合适的User-Agent有时可以帮助规避反爬机制(通过chrome_options.add_argument(“user-agent=…”))。错误处理: 使用try…except…finally块来捕获可能发生的异常,并在finally块中确保driver.quit()被调用,以避免浏览器进程残留。时间延迟: 在某些复杂交互后,可能需要使用time.sleep()进行短暂的硬性等待,以确保页面完全渲染或异步请求完成,但应尽量优先使用显式等待。元素定位: 优先使用ID、CSS选择器或XPath等精确且稳定的定位方式。避免使用过于泛化的类名或文本内容定位,因为它们可能随网站更新而改变。

总结

通过结合Selenium的浏览器自动化能力和BeautifulSoup的HTML解析能力,我们可以有效地应对动态网页抓取带来的挑战。Selenium负责模拟用户交互、等待页面加载并获取JavaScript执行后的HTML内容,而BeautifulSoup则专注于从这些内容中提取所需的数据。掌握这种组合技术,将大大扩展你的网页抓取能力,让你能够处理更复杂的现代网站。

以上就是使用Python和Selenium抓取动态网页数据教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1378977.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 20:15:52
下一篇 2025年12月14日 20:16:04

相关推荐

  • Python3数据类型有哪些_Python3常见数据类型全面解析

    Python3基本数据类型包括数字、字符串、列表、元组、字典、集合和布尔类型。1、数字类型含int、float、complex,分别表示整数、浮点数和复数;2、字符串是不可变的字符序列,用单、双或三引号定义,支持索引与切片;3、列表为有序可变序列,用方括号定义,可进行增删改查操作;4、元组为有序不可…

    2025年12月14日
    000
  • Python 3.x 环境中安装 enum 包报错及正确使用内置枚举模块

    在python 3.x环境中尝试安装外部`enum`包时,常会遇到`attributeerror: module ‘enum’ has no attribute ‘__version__’`错误。这通常是因为python 3.4及更高版本已内置`enu…

    2025年12月14日
    000
  • CCXT fetch_ohlcv数据获取:时区处理与最新K线完整性指南

    使用ccxt的`fetch_ohlcv`方法获取最新ohlcv数据时,用户常遇到数据缺失,尤其是在请求特定时间范围时。这通常是由于未正确处理时区造成的。ccxt默认处理utc时间戳,而用户可能传入了本地化时间。本文将深入探讨这一常见问题,提供正确的时区处理策略和代码示例,确保您能准确无误地获取到最新…

    2025年12月14日
    000
  • 在Windows上正确执行nbdev导出与本地包安装教程

    本教程旨在解决在Windows环境下使用nbdev时,如何正确结合`nbdev_export`命令与本地包安装。文章将详细解释`pip install .`(或`pip install -e .`)的用法,以确保nbdev导出的模块能够被项目正确识别和导入,并提供跨平台命令执行的注意事项及最佳实践。…

    2025年12月14日
    000
  • 利用Pandas与NumPy高效构建坐标DataFrame

    本文旨在指导读者如何基于现有DataFrame和索引列表,高效地构建一个新的坐标DataFrame。我们将探讨两种主要方法:基于循环和字典的迭代方法,以及利用NumPy高级索引和向量化操作的更优方法,旨在提高数据处理的效率和代码简洁性,为后续数据可视化(如路线绘制)奠定基础。 在数据分析和处理中,我…

    2025年12月14日
    000
  • Django 模板中列表数据的高效迭代与访问技巧

    本文旨在指导开发者如何在django模板中高效且正确地迭代列表数据并访问其元素,避免常见的语法错误。我们将详细介绍直接迭代列表、通过索引访问特定元素以及处理嵌套数据结构的方法,并提供清晰的代码示例和最佳实践,以提升模板的可读性和维护性。 在Django Web开发中,经常需要将后端视图(views.…

    2025年12月14日 好文分享
    000
  • Python datetime模块计时器:避免精确时间比较陷阱

    本文深入探讨了在使用python `datetime`模块构建计时器时,因对时间进行精确相等比较(`==`)而引发的常见问题。由于`datetime`对象具有微秒级精度,`datetime.now()`在循环中几乎不可能与预设的`endtime`完全一致,导致计时器无法终止。本教程将阐明此核心问题,…

    2025年12月14日
    000
  • TensorFlow中tf.Variable的零初始化与优化器的工作原理

    本文深入探讨tensorflow中`tf.variable`使用零向量作为初始值的工作机制。我们将解释为何模型在初始化时系数为零会产生零输出,并阐明优化器如何通过迭代更新这些初始零值,使其在训练过程中逐渐收敛到能够有效拟合数据的非零参数,从而实现模型学习。 1. tf.Variable与参数初始化 …

    2025年12月14日
    000
  • Python类循环引用:深入理解与解耦优化策略

    本文深入探讨了Python中类之间看似循环引用的场景,特别是通过from __future__ import annotations和if TYPE_CHECKING进行类型注解时的行为。文章澄清了类型注解与运行时依赖的区别,指出许多“循环引用”并非真正的运行时问题。同时,文章强调了Python鸭子…

    2025年12月14日
    000
  • 使用Python提取Word文档表格中带编号列表的文本

    本文详细介绍了如何使用`python-docx`库从Word文档的表格中准确提取包含编号列表的文本内容。通过遍历文档、表格、行、单元格及段落,并结合段落样式和文本前缀判断,可以有效识别并提取如“1. 外观”这类带编号的列表项,同时提供了处理多行列表项的优化方案,确保提取结果的准确性和完整性。 引言 …

    2025年12月14日
    000
  • Matplotlib动画中的全局变量管理与性能优化实践

    在使用Matplotlib的`FuncAnimation`模块创建动态数据可视化时,开发者经常会遇到需要实时更新内部状态变量的场景,例如模拟自适应滤波器(如CALP)的系数调整、物理系统的状态变化等。这种动态更新要求动画回调函数能够访问并修改这些状态变量。然而,如果不理解Python的变量作用域规则…

    2025年12月14日
    000
  • Pandas与NumPy:高效构建基于索引的坐标DataFrame

    本文详细介绍了如何从一个包含索引对的列表和一个现有dataframe中,高效地提取x和y坐标,并构建一个新的坐标dataframe。教程对比了基于循环的字典构建方法与利用numpy进行向量化操作的优化方案,强调了后者在处理大规模数据时的性能优势和代码简洁性,最终目标是为后续的路径绘制提供精确的坐标数…

    2025年12月14日
    000
  • Python异步编程:实现延迟加载属性的最佳实践

    本文深入探讨了在python `asyncio` 环境中如何高效且正确地实现异步延迟加载属性。针对在描述符 `__get__` 方法中直接 `await` 异步调用的常见误区,文章指出关键在于让属性本身返回一个可等待对象,并要求属性的消费者进行 `await` 操作,从而确保非阻塞的数据加载,避免事…

    2025年12月14日
    000
  • python自由变量是什么

    自由变量是在嵌套函数中被内层函数引用但定义于外层函数的变量,属于闭包机制的一部分。例如在 outer 函数中定义的 x 被 inner 函数引用时,x 对 inner 来说是自由变量,其作用域为 enclosing,可通过 __code__.co_freevars 查看变量名,通过 __closur…

    2025年12月14日
    000
  • Django模板中列表数据的正确迭代与访问技巧

    本文旨在解决Django模板中循环迭代和访问列表数据时常见的误区。我们将深入探讨如何在Django模板中正确地遍历列表、按索引访问特定元素,以及在复杂数据结构(如对象列表)中的应用,避免直接使用循环变量进行动态索引的错误方式,从而提高模板渲染的效率和准确性。 理解Django模板中的数据传递与访问 …

    2025年12月14日
    000
  • 解决 PyMongo 连接 MongoDB Atlas 认证失败问题

    本文旨在解决pymongo连接mongodb atlas时常见的“bad auth: authentication failed”错误。即使ip白名单和用户权限看似正确,有时问题仍可能出在用户账户本身。教程将提供详细的排查步骤,包括连接字符串、ip白名单和用户权限验证,并重点介绍一种有效的解决方案:…

    2025年12月14日
    000
  • 计算多边形最远坐标并以海里为单位计算距离

    本文旨在提供一种使用 Python Shapely 库和 geopy 库计算多边形上两个最远坐标点之间距离的方法,结果以海里为单位。文章详细解释了代码实现,包括坐标点的选取、距离计算函数的正确使用以及最终结果的展示。通过本文,读者可以掌握计算多边形最大线性范围并测量距离的有效方法。 在处理地理空间数…

    2025年12月14日
    000
  • python删除元素的使用条件

    del语句用于删除列表、字典、切片或变量,不返回值,需注意索引和键是否存在;2. remove()方法按值删除列表中第一个匹配元素,元素不存在时抛ValueError;3. pop()方法删除并返回列表指定位置或字典指定键的元素,常用于需获取删除值的场景;4. clear()方法清空列表、字典或集合…

    2025年12月14日
    000
  • Python中处理带单位字符串数据并转换为浮点数的教程

    本教程旨在解决将包含单位(如“m”表示百万,“b”表示十亿)的字符串数据转换为浮点数值,并保留特定字符串(如“damages not recorded”)的常见编程问题。文章将分析常见错误,并提供一个结构化、健壮的python函数实现,涵盖字符串处理、条件判断及数据类型转换的最佳实践,以确保数据处理…

    2025年12月14日
    000
  • 在Streamlit应用中高效展示本地GIF集合的教程

    本教程详细阐述了如何在streamlit应用中加载并显示来自本地文件夹的多个gif图片。通过利用python的glob模块进行文件路径匹配,结合base64编码将gif内容嵌入到html的标签中,我们提供了一种健壮且跨平台兼容的解决方案。文章将涵盖环境配置、代码实现细节以及关键注意事项,确保用户能够…

    好文分享 2025年12月14日
    000

发表回复

登录后才能评论
关注微信