Python网络爬虫:处理URL不变的分页数据抓取

Python网络爬虫:处理URL不变的分页数据抓取

本文详细介绍了如何使用python处理看似静态但实际通过post请求实现分页的网页数据抓取。当url在翻页时保持不变时,传统的url枚举方法将失效。教程将指导读者如何通过分析网络请求,识别并构造post请求体中的分页参数,结合requests和beautifulsoup库,实现高效、完整的数据爬取,并将结果整理为结构化的dataframe。

引言:理解静态URL下的动态分页挑战

在进行网络数据抓取时,我们经常会遇到网站内容通过分页展示的情况。传统的分页机制通常会在URL中体现页码参数(如 page=1, page=2),这使得通过简单地修改URL即可遍历所有页面。然而,许多现代网站为了提供更流畅的用户体验,会采用AJAX技术或通过POST请求在不刷新整个页面的情况下加载新数据。这意味着即使页面内容(例如表格数据)发生变化,浏览器地址栏中的URL也可能保持不变。

对于爬虫开发者而言,这种“静态URL下的动态分页”机制带来了挑战。例如,在抓取像 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这样的网站时,尽管页面上显示了数千条数据并提供了翻页功能,但实际的URL在翻页时并不会改变。此时,单纯依赖 requests.get() 和 pd.read_html() 只能获取到当前显示页面的数据,无法遍历所有页面。

核心策略:识别并模拟POST请求

解决此类问题的关键在于理解浏览器在用户点击“下一页”时实际执行了什么操作。通常,当URL不发生变化但内容更新时,浏览器会向服务器发送一个异步请求,这个请求往往是一个POST请求,并且在请求体(Request Body)中包含了控制分页、排序或筛选的参数。

我们的目标就是模拟这种POST请求:

立即学习“Python免费学习笔记(深入)”;

识别POST请求: 使用浏览器开发者工具(如Chrome的DevTools,Network Tab),监控在翻页操作时发出的HTTP请求。提取请求参数: 找到对应的POST请求,分析其请求URL和请求负载(Payload/Form Data),确定哪些参数是控制分页的关键(如 pageNum)。构造请求: 在Python中使用 requests 库,构造相同的POST请求,并迭代地修改分页参数以获取不同页的数据。

Python实现步骤

以下将详细介绍如何使用Python的 requests、BeautifulSoup 和 pandas 库来抓取此类分页数据。

1. 导入所需库

首先,我们需要导入本教程将使用的Python库:

requests:用于发送HTTP请求。pandas:用于将抓取到的数据结构化为DataFrame。BeautifulSoup:用于解析HTML内容并提取所需数据。

import requestsimport pandas as pdfrom bs4 import BeautifulSoupimport time # 建议引入,用于控制请求间隔

2. 分析POST请求参数

通过浏览器开发者工具(F12),切换到“Network”选项卡,然后尝试点击网页上的“下一页”按钮。观察新出现的请求,通常会有一个POST请求到相同的URL。点击该请求,查看其“Payload”或“Form Data”部分,你会发现一系列键值对。

针对 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这个网站,经过分析,我们发现翻页时会发送以下形式的POST数据,其中 pageNum 是控制页码的关键参数:

data = {    "folder": "auctionResults",    "loginID": "00",    "pageNum": "1", # 关键参数,用于控制页码    "orderBy": "AdvNum",    "orderDir": "asc",    "justFirstCertOnGroups": "1",    "doSearch": "true",    "itemIDList": "",    "itemSetIDList": "",    "interest": "",    "premium": "",    "itemSetDID": "",}url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"

3. 迭代发送POST请求并提取数据

有了请求URL和POST数据模板,我们就可以在一个循环中迭代 pageNum 参数,发送请求,并解析返回的HTML内容。

all_data = [] # 用于存储所有页面的数据# 假设我们需要抓取前N页数据,这里以3页为例,实际应根据总页数调整# 注意:网站可能没有直接显示总页数,可能需要通过抓取一页数据后解析出总记录数再计算,# 或者设置一个较大的循环次数直到不再返回新数据为止。for page_num in range(1, 3): # <-- 增加循环次数以获取更多页面    data["pageNum"] = str(page_num) # 更新页码参数    # 发送POST请求    response = requests.post(url, data=data)    # 检查请求是否成功    if response.status_code == 200:        soup = BeautifulSoup(response.content, "html.parser")        # 定位数据表格,根据页面HTML结构,数据通常在特定的ID或Class的表格中        # 示例中,数据在id为"searchResults"的表格中,且前两行是表头        for row in soup.select("#searchResults tr")[2:]:             tds = [td.text.strip() for td in row.select("td")]            all_data.append(tds)    else:        print(f"请求第 {page_num} 页失败,状态码: {response.status_code}")    time.sleep(1) # 建议增加延迟,避免请求过快被服务器屏蔽

4. 构建Pandas DataFrame

抓取到所有页面的数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和处理。

# 定义列名,确保与网页表格的列顺序一致columns = [    "SEQ NUM",    "Tax Year",    "Notices",    "Parcel ID",    "Face Amount",    "Winning Bid",    "Sold To",]df = pd.DataFrame(all_data, columns=columns)# 打印DataFrame的最后10条数据进行验证print(df.tail(10).to_markdown(index=False)) # index=False 避免打印DataFrame索引

完整示例代码

import requestsimport pandas as pdfrom bs4 import BeautifulSoupimport time# 目标URL,即使翻页也不会改变url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"# POST请求的表单数据模板# 这些参数通过浏览器开发者工具分析得到data = {    "folder": "auctionResults",    "loginID": "00",    "pageNum": "1", # 关键参数,会在循环中更新    "orderBy": "AdvNum",    "orderDir": "asc",    "justFirstCertOnGroups": "1",    "doSearch": "true",    "itemIDList": "",    "itemSetIDList": "",    "interest": "",    "premium": "",    "itemSetDID": "",}all_data = [] # 用于存储从所有页面抓取到的数据# 假设网站有N页数据,这里以抓取前2页为例。# 实际应用中,你需要根据网站的实际总页数或通过其他方式判断何时停止。# 例如,可以尝试抓取一页,解析出总记录数或总页码,再进行循环。# 或者,可以循环到一个较大的页码,如果返回的数据为空或与上一页重复,则停止。for page_num in range(1, 3):  # 示例:抓取第1页和第2页    data["pageNum"] = str(page_num) # 更新当前请求的页码    try:        # 发送POST请求,附带更新后的表单数据        response = requests.post(url, data=data)        response.raise_for_status()  # 检查HTTP请求是否成功,如果失败则抛出异常        # 使用BeautifulSoup解析HTML内容        soup = BeautifulSoup(response.content, "html.parser")        # 查找包含数据的表格行。根据HTML结构,#searchResults是表格的ID,        # tr是行,[2:]表示跳过前两行(通常是表头)        for row in soup.select("#searchResults tr")[2:]:            tds = [td.text.strip() for td in row.select("td")]            all_data.append(tds)        print(f"成功抓取第 {page_num} 页数据。")    except requests.exceptions.RequestException as e:        print(f"请求第 {page_num} 页时发生错误: {e}")    except Exception as e:        print(f"解析第 {page_num} 页数据时发生错误: {e}")    time.sleep(1) # 每次请求后暂停1秒,避免对服务器造成过大压力# 定义DataFrame的列名,与网页表格的列对应columns = [    "SEQ NUM",    "Tax Year",    "Notices",    "Parcel ID",    "Face Amount",    "Winning Bid",    "Sold To",]# 将抓取到的所有数据转换为Pandas DataFramedf = pd.DataFrame(all_data, columns=columns)# 打印DataFrame的最后10行数据进行验证print("n--- 抓取到的数据(最后10行)---")print(df.tail(10).to_markdown(index=False))

注意事项与最佳实践

动态参数识别: 最关键的一步是正确识别POST请求中的所有必要参数,特别是那些会随用户操作(如翻页、筛选、排序)而变化的参数。这通常需要通过浏览器开发者工具仔细观察。反爬机制: 许多网站会实施反爬机制来限制自动化访问。User-Agent: 在 requests.post() 中添加 headers={‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36’} 等模拟浏览器头信息,可以降低被识别为爬虫的风险。请求间隔: 使用 time.sleep() 在每次请求之间增加延迟(如1-5秒),模拟人类浏览行为,避免因请求频率过高而被服务器屏蔽IP。Cookie/Session: 有些网站可能需要携带会话Cookie才能访问。在 requests 中,可以使用 requests.Session() 对象来自动管理Cookie。错误处理: 编写健壮的爬虫代码至关重要。使用 try-except 块来捕获可能发生的网络错误(如连接超时、DNS解析失败)或解析错误,确保爬虫不会因单个页面的问题而中断。JavaScript渲染: 如果页面数据是通过复杂的JavaScript在客户端动态渲染的,仅使用 requests 和 BeautifulSoup 可能无法获取到所有数据。在这种情况下,可能需要考虑使用 Selenium 或 Playwright 等无头浏览器自动化工具,它们可以模拟完整的浏览器环境来执行JavaScript。法律与道德: 在进行任何网络爬取活动之前,请务必查看网站的 robots.txt 文件和用户服务条款,了解其数据使用政策。遵守相关法律法规,尊重网站的数据所有权和服务器资源,进行负责任的爬取。

总结

即使面对URL不变的分页场景,通过深入理解HTTP协议和网站的交互机制,我们依然可以有效地抓取所需数据。关键在于利用浏览器开发者工具分析出实际的POST请求及其参数,然后使用 requests 库模拟这些请求,结合 BeautifulSoup 进行HTML解析,最后用 pandas 整理数据。掌握这一技巧,将大大扩展Python网络爬虫的应用范围。

以上就是Python网络爬虫:处理URL不变的分页数据抓取的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1595237.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月23日 10:08:27
下一篇 2025年12月23日 10:08:37

相关推荐

  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何用HTML/JS实现Windows 10设置界面鼠标移动探照灯效果?

    Win10设置界面中的鼠标移动探照灯效果实现指南 想要在前端开发中实现类似于Windows 10设置界面的鼠标移动探照灯效果,有两种解决方案:CSS 和 HTML/JS 组合。 CSS 实现 不幸的是,仅使用CSS无法完全实现该效果。 立即学习“前端免费学习笔记(深入)”; HTML/JS 实现 要…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 如何用前端技术实现Windows 10 设置界面鼠标移动时的探照灯效果?

    探索在前端中实现 Windows 10 设置界面鼠标移动时的探照灯效果 在前端开发中,鼠标悬停在元素上时需要呈现类似于 Windows 10 设置界面所展示的探照灯效果,这其中涉及到了元素外围显示光圈效果的技术实现。 CSS 实现 虽然 CSS 无法直接实现探照灯效果,但可以通过以下技巧营造出类似效…

    2025年12月24日
    000
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • 苹果浏览器网页背景图色差问题:如何解决背景图不一致?

    网页背景图在苹果浏览器上出现色差 一位用户在使用苹果浏览器访问网页时遇到一个问题,网页上方的背景图比底部的背景图明显更亮。 这个问题的原因很可能是背景图没有正确配置 background-size 属性。在 windows 浏览器中,背景图可能可以自动填满整个容器,但在苹果浏览器中可能需要显式设置 …

    2025年12月24日
    400
  • 苹果浏览器网页背景图像为何色差?

    网页背景图像在苹果浏览器的色差问题 在不同浏览器中,网站的背景图像有时会出现色差。例如,在 Windows 浏览器中显示正常的上层背景图,在苹果浏览器中却比下层背景图更亮。 问题原因 出现此问题的原因可能是背景图像未正确设置 background-size 属性。 解决方案 为确保背景图像在不同浏览…

    2025年12月24日
    500
  • 苹果电脑浏览器背景图亮度差异:为什么网页上下部背景图色差明显?

    背景图在苹果电脑浏览器上亮度差异 问题描述: 在网页设计中,希望上部元素的背景图与页面底部的背景图完全对齐。而在 Windows 中使用浏览器时,该效果可以正常实现。然而,在苹果电脑的浏览器中却出现了明显的色差。 原因分析: 如果您已经排除屏幕分辨率差异的可能性,那么很可能是背景图的 backgro…

    2025年12月24日
    000
  • 正则表达式在文本验证中的常见问题有哪些?

    正则表达式助力文本输入验证 在文本输入框的验证中,经常遇到需要限定输入内容的情况。例如,输入框只能输入整数,第一位可以为负号。对于不会使用正则表达式的人来说,这可能是个难题。下面我们将提供三种正则表达式,分别满足不同的验证要求。 1. 可选负号,任意数量数字 如果输入框中允许第一位为负号,后面可输入…

    2025年12月24日
    000
  • 如何在 VS Code 中解决折叠代码复制问题?

    解决 VS Code 折叠代码复制问题 在 VS Code 中使用折叠功能可以帮助组织长代码,但使用复制功能时,可能会遇到只复制可见部分的问题。以下是如何解决此问题: 当代码被折叠时,可以使用以下简单操作复制整个折叠代码: 按下 Ctrl + C (Windows/Linux) 或 Cmd + C …

    2025年12月24日
    000
  • 为什么多年的经验让我选择全栈而不是平均栈

    在全栈和平均栈开发方面工作了 6 年多,我可以告诉您,虽然这两种方法都是流行且有效的方法,但它们满足不同的需求,并且有自己的优点和缺点。这两个堆栈都可以帮助您创建 Web 应用程序,但它们的实现方式却截然不同。如果您在两者之间难以选择,我希望我在两者之间的经验能给您一些有用的见解。 在这篇文章中,我…

    2025年12月24日
    000
  • 姜戈顺风

    本教程演示如何在新项目中从头开始配置 django 和 tailwindcss。 django 设置 创建一个名为 .venv 的新虚拟环境。 # windows$ python -m venv .venv$ .venvscriptsactivate.ps1(.venv) $# macos/linu…

    2025年12月24日
    000
  • 花 $o 学习这些编程语言或免费

    → Python → JavaScript → Java → C# → 红宝石 → 斯威夫特 → 科特林 → C++ → PHP → 出发 → R → 打字稿 []https://x.com/e_opore/status/1811567830594388315?t=_j4nncuiy2wfbm7ic…

    2025年12月24日
    000
  • 深入剖析Ajax技术:揭开其核心技术原理与应用

    深入了解Ajax技术:探索其核心技术原理与应用Ajax(Asynchronous JavaScript and XML)是一种在Web开发中广泛应用的技术,它通过使用异步通信和JavaScript的技术手段,实现了在不刷新整个网页的情况下与服务器进行数据交互。在本文中,我们将深入了解Ajax技术的核…

    2025年12月24日
    000
  • 了解AJAX所需的参数是什么?

    深入了解AJAX的参数:您需要掌握哪些参数? 引言: 在现代Web开发中,AJAX(Asynchronous JavaScript and XML)是一个被广泛使用的技术,它可以实现异步加载数据,从而提升用户体验。AJAX的核心是通过发送HTTP请求与服务器进行交互,并将响应的数据动态地展示在页面上…

    2025年12月24日
    000
  • 深入解析AJAX参数:它们的重要性何在?

    AJAX的参数详解:为什么它们如此重要? 随着Web应用的复杂性不断增加,用户对于实时响应和无刷新的交互体验的需求也越来越高。在这样的背景下,AJAX(Asynchronous JavaScript and XML)成为了前端开发中的必备技术。它可以实现异步数据交互,从服务器请求数据并将其无缝地展示…

    2025年12月24日
    000
  • 通过使用Ajax函数实现异步数据交换的方法

    如何利用Ajax函数实现异步数据交互 随着互联网和Web技术的发展,前端与后端之间的数据交互变得十分重要。传统的数据交互方式,如页面刷新和表单提交,已经不能满足用户的需求。而Ajax(Asynchronous JavaScript and XML)则成为了实现异步数据交互的重要工具。 Ajax通过使…

    2025年12月24日
    000
  • Ajax技术:传统与现代的发展与演进

    从传统到现代:Ajax技术的发展与演进 引言:随着互联网的发展,网页设计与开发也在不断演进。传统的网页通过用户与服务器之间的页面刷新来传递和展示数据,这种方式存在诸多的不便和效率问题。而Ajax(Asynchronous JavaScript and XML)技术的出现,彻底改变了传统网页的工作方式…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信