从网站下载PDF并自定义文件名的Python教程

从网站下载PDF并自定义文件名的Python教程

本教程详细介绍了如何使用python的requests和beautifulsoup库,从动态asp网站抓取pdf文件。文章涵盖了http post请求、html解析、pdf链接识别,以及如何利用网页显示文本作为文件名保存下载内容,实现自动化且智能的文档管理。

引言

在日常工作中,我们经常需要从网站下载大量文件,尤其是PDF文档。然而,网站提供的下载链接通常只包含技术性的文件名,而非用户友好的显示名称。本教程旨在解决这一问题,指导您如何利用Python编写脚本,从特定网页(例如ASP站点)抓取PDF文件,并将其保存为网页上显示的标题名称,从而实现更智能、更高效的文档管理。我们将重点关注如何解析HTML以获取正确的下载链接和对应的显示名称,以及如何利用Python的HTTP库完成文件下载。

环境准备

在开始之前,请确保您的Python环境中安装了以下库:

requests: 用于发送HTTP请求,包括POST和GET请求。BeautifulSoup4: 用于解析HTML和XML文档,方便提取所需数据。lxml: BeautifulSoup的解析器,通常推荐安装以提高解析速度和兼容性。

您可以使用pip命令进行安装:

pip install requests beautifulsoup4 lxml

核心技术概览

本教程将综合运用以下Python库和技术:

立即学习“Python免费学习笔记(深入)”;

requests库:requests.post(): 用于向服务器发送POST请求,模拟表单提交,以获取动态生成的内容。requests.get(): 用于下载文件内容。headers: 设置请求头,模拟浏览器行为,避免被网站拒绝。data或json: 传递POST请求的表单数据。BeautifulSoup库:BeautifulSoup(html_content, “lxml”): 初始化解析器,将HTML内容转换为可操作的对象。find_all(‘a’, {‘href’: True}): 查找所有带有href属性的标签。link.get(‘href’): 获取标签的href属性值(即链接)。link.text: 获取标签的文本内容(即显示名称)。os模块:os.path.join(): 安全地拼接文件路径,自动处理不同操作系统的路径分隔符。os.makedirs(path, exist_ok=True): 创建目录,exist_ok=True参数确保如果目录已存在不会抛出错误。文件操作:with open(full_path, ‘wb’) as fh:: 以二进制写入模式打开文件,确保正确保存下载的二进制内容。

实现步骤详解

我们将通过一个具体的例子来演示如何实现从ASP网站下载PDF并自定义文件名。假设我们需要从一个ASP网站根据“班级”和“科目”筛选后,下载其中列出的PDF文件。

1. 定义配置与初始化

首先,导入必要的库,并定义目标URL、请求头以及文件保存路径。

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse # 尽管本例中不直接使用urlparse.quote,但了解其用途很重要# 定义目标网站URLBASE_URL = "https://www.svpo.nl/curriculum.asp"# 定义请求头,模拟浏览器行为HEADERS = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义PDF文件保存的根目录OUTPUT_ROOT_PATH = r'c:ooks' # 使用原始字符串避免反斜杠转义问题# 定义需要遍历的班级和科目klassen = ['1e klas']vakken = ['Wiskunde']# 可以扩展为更多班级和科目# vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis',#           'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',#           'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal',#           'Loopbaanorientatie','NLT']downloaded_links = [] # 用于存储已下载的链接,可选

2. 遍历筛选条件并发送POST请求

网站内容通常是根据用户选择动态生成的。我们需要模拟用户选择“班级”和“科目”的过程,通过发送POST请求获取对应的HTML内容。

for klas in klassen:    for vak in vakken:        # 构建当前班级和科目的保存路径        # os.path.join 会智能处理路径分隔符        current_save_path = os.path.join(OUTPUT_ROOT_PATH, klas, vak)        # 创建目录,如果目录已存在则不报错        os.makedirs(current_save_path, exist_ok=True)        print(f"正在处理: 班级 '{klas}', 科目 '{vak}'")        print(f"文件将保存到: {current_save_path}")        # 构建POST请求的表单数据        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        # 发送POST请求获取网页内容        try:            response = requests.post(BASE_URL, data=payload, headers=HEADERS)            response.raise_for_status() # 检查HTTP请求是否成功 (200 OK)            html_content = response.text        except requests.exceptions.RequestException as e:            print(f"请求失败,跳过: {e}")            continue

3. 解析HTML并提取PDF链接及显示名称

获取到HTML内容后,使用BeautifulSoup进行解析,找出所有指向PDF文件的标签,并提取它们的href属性(下载链接)和text内容(显示名称)。

4. 下载PDF文件并保存到本地

使用requests.get()下载PDF文件的内容,并将其写入到之前构造的本地文件路径中。

                # 检查文件是否已存在,避免重复下载                if os.path.exists(full_local_path):                    print(f"  文件 '{final_filename}' 已存在,跳过下载。")                    continue                try:                    # 发送GET请求下载PDF内容                    pdf_response = requests.get(download_url, headers=HEADERS, stream=True)                    pdf_response.raise_for_status() # 检查下载请求是否成功                    # 将下载内容写入文件                    with open(full_local_path, 'wb') as fh:                        for chunk in pdf_response.iter_content(chunk_size=8192):                            fh.write(chunk)                    print(f"  成功下载 '{final_filename}'")                    downloaded_links.append(download_url) # 记录已下载的链接                except requests.exceptions.RequestException as e:                    print(f"  下载 '{final_filename}' 失败: {e}")                print('---') # 分隔符,便于查看输出

完整示例代码

将上述步骤整合到一起,形成一个完整的Python脚本:

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse# 定义目标网站URLBASE_URL = "https://www.svpo.nl/curriculum.asp"# 定义请求头,模拟浏览器行为HEADERS = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义PDF文件保存的根目录OUTPUT_ROOT_PATH = r'c:ooks' # 使用原始字符串避免反斜杠转义问题# 定义需要遍历的班级和科目klassen = ['1e klas']vakken = ['Wiskunde']# 可以扩展为更多班级和科目# vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis',#           'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',#           'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal',#           'Loopbaanorientatie','NLT']downloaded_links = [] # 用于存储已下载的链接,可选print("开始PDF下载任务...")for klas in klassen:    for vak in vakken:        # 构建当前班级和科目的保存路径        current_save_path = os.path.join(OUTPUT_ROOT_PATH, klas, vak)        os.makedirs(current_save_path, exist_ok=True) # 创建目录,如果目录已存在则不报错        print(f"--- 正在处理: 班级 '{klas}', 科目 '{vak}' ---")        print(f"文件将保存到: {current_save_path}")        # 构建POST请求的表单数据        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        try:            # 发送POST请求获取网页内容            response = requests.post(BASE_URL, data=payload, headers=HEADERS, timeout=10) # 设置超时            response.raise_for_status() # 检查HTTP请求是否成功 (200 OK)            html_content = response.text        except requests.exceptions.RequestException as e:            print(f"  请求网页失败,跳过当前组合: {e}")            continue        # 使用BeautifulSoup解析HTML内容        soup = BeautifulSoup(html_content, "lxml")        # 查找所有带有href属性的标签        all_links = soup.find_all('a', {'href': True})        for link_tag in all_links:            url_raw = link_tag.get('href') # 获取原始链接            # 检查链接是否指向PDF文件(不区分大小写)            if url_raw and url_raw.lower().endswith('.pdf'):                # 某些网站的URL可能包含反斜杠,需要替换为正斜杠以确保URL有效                download_url = url_raw.replace('', '/')                # 提取标签的文本内容作为文件名                raw_filename = link_tag.text.strip()                # 清理文件名:移除Windows不允许的字符                # 实际应用中可能需要更复杂的清理逻辑,例如处理过长文件名                invalid_chars = r':"/|?*'                cleaned_filename = "".join(c for c in raw_filename if c not in invalid_chars)                if not cleaned_filename: # 如果清理后文件名为空,则使用URL中的文件名作为备用                    cleaned_filename = os.path.basename(download_url).split('?')[0] # 移除URL参数                    cleaned_filename = cleaned_filename.rsplit('.', 1)[0] if '.' in cleaned_filename else cleaned_filename                # 组合最终的文件名,确保有.pdf后缀                final_filename = f"{cleaned_filename}.pdf"                print(f"  发现PDF: '{final_filename}'")                print(f"  下载链接: {download_url}")                # 构造完整的本地文件路径                full_local_path = os.path.join(current_save_path, final_filename)                print(f"  保存路径: {full_local_path}")                # 检查文件是否已存在,避免重复下载                if os.path.exists(full_local_path):                    print(f"  文件 '{final_filename}' 已存在,跳过下载。")                    continue                try:                    # 发送GET请求下载PDF内容,使用stream=True和iter_content分块下载                    pdf_response = requests.get(download_url, headers=HEADERS, stream=True, timeout=30)                    pdf_response.raise_for_status() # 检查下载请求是否成功                    # 将下载内容写入文件                    with open(full_local_path, 'wb') as fh:                        for chunk in pdf_response.iter_content(chunk_size=8192):                            fh.write(chunk)                    print(f"  成功下载 '{final_filename}'")                    downloaded_links.append(download_url) # 记录已下载的链接                except requests.exceptions.RequestException as e:                    print(f"  下载 '{final_filename}' 失败: {e}")                except IOError as e:                    print(f"  写入文件 '{final_filename}' 失败: {e}")print("所有任务完成。")print(f"共下载了 {len(downloaded_links)} 个PDF文件。")

注意事项与最佳实践

文件名合法性:Windows、macOS和Linux对文件名有不同的限制。示例代码中对文件名进行了基本清理,移除了Windows不允许的字符。在实际应用中,您可能需要更健壮的逻辑来处理特殊字符、文件名长度限制以及编码问题。如果link.text为空或清理后为空,应有备用方案,例如使用URL中的文件名。错误处理:网络请求可能失败(如连接超时、DNS解析失败)。使用try-except requests.exceptions.RequestException可以捕获这些错误。response.raise_for_status()是一个好习惯,它会在HTTP状态码表示错误时(如4xx或5xx)抛出异常。文件写入也可能失败(如磁盘空间不足、权限问题),应使用try-except IOError捕获。User-Agent:许多网站会检查User-Agent请求头,以识别请求来源。模拟常见的浏览器User-Agent可以有效避免被网站阻止。URL编码与解码:虽然requests库通常能很好地处理URL编码,但如果URL中包含非ASCII字符或特殊符号,确保它们被正确编码(例如使用urllib.parse.quote)是重要的。本例中,requests自动处理了大部分情况。网站访问频率与爬虫道德:自动化脚本应遵守网站的robots.txt协议,并控制访问频率,避免对网站服务器造成过大负担。过于频繁的请求可能导致IP被封禁。URL中的反斜杠:在Windows环境下,某些网站的URL路径可能错误地使用反斜杠作为分隔符。Python的requests库通常期望URL使用正斜杠/。因此,url_raw.replace(”, ‘/’)是一个重要的处理步骤。分块下载:对于大型文件,使用stream=True参数和iter_content()方法进行分块下载,可以有效管理内存,避免一次性将整个文件加载到内存中。

总结

通过本教程,您学习了如何利用Python的requests和BeautifulSoup库,高效地从动态网站下载PDF文件,并根据网页上显示的标题自定义文件名。这不仅提升了自动化能力,也使得下载的文档更具可读性和管理性。结合错误处理和最佳实践,您可以构建出稳定可靠的网页内容抓取和下载解决方案。请记住,在进行任何网络爬取活动时,始终要尊重网站的使用条款和robots.txt协议。

以上就是从网站下载PDF并自定义文件名的Python教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1601021.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月23日 15:09:14
下一篇 2025年12月23日 15:09:23

相关推荐

  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • CSS元素设置em和transition后,为何载入页面无放大效果?

    css元素设置em和transition后,为何载入无放大效果 很多开发者在设置了em和transition后,却发现元素载入页面时无放大效果。本文将解答这一问题。 原问题:在视频演示中,将元素设置如下,载入页面会有放大效果。然而,在个人尝试中,并未出现该效果。这是由于macos和windows系统…

    2025年12月24日
    200
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 如何用HTML/JS实现Windows 10设置界面鼠标移动探照灯效果?

    Win10设置界面中的鼠标移动探照灯效果实现指南 想要在前端开发中实现类似于Windows 10设置界面的鼠标移动探照灯效果,有两种解决方案:CSS 和 HTML/JS 组合。 CSS 实现 不幸的是,仅使用CSS无法完全实现该效果。 立即学习“前端免费学习笔记(深入)”; HTML/JS 实现 要…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 如何用前端技术实现Windows 10 设置界面鼠标移动时的探照灯效果?

    探索在前端中实现 Windows 10 设置界面鼠标移动时的探照灯效果 在前端开发中,鼠标悬停在元素上时需要呈现类似于 Windows 10 设置界面所展示的探照灯效果,这其中涉及到了元素外围显示光圈效果的技术实现。 CSS 实现 虽然 CSS 无法直接实现探照灯效果,但可以通过以下技巧营造出类似效…

    2025年12月24日
    000
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • 苹果浏览器网页背景图色差问题:如何解决背景图不一致?

    网页背景图在苹果浏览器上出现色差 一位用户在使用苹果浏览器访问网页时遇到一个问题,网页上方的背景图比底部的背景图明显更亮。 这个问题的原因很可能是背景图没有正确配置 background-size 属性。在 windows 浏览器中,背景图可能可以自动填满整个容器,但在苹果浏览器中可能需要显式设置 …

    2025年12月24日
    400
  • 苹果浏览器网页背景图像为何色差?

    网页背景图像在苹果浏览器的色差问题 在不同浏览器中,网站的背景图像有时会出现色差。例如,在 Windows 浏览器中显示正常的上层背景图,在苹果浏览器中却比下层背景图更亮。 问题原因 出现此问题的原因可能是背景图像未正确设置 background-size 属性。 解决方案 为确保背景图像在不同浏览…

    2025年12月24日
    300
  • 苹果电脑浏览器背景图亮度差异:为什么网页上下部背景图色差明显?

    背景图在苹果电脑浏览器上亮度差异 问题描述: 在网页设计中,希望上部元素的背景图与页面底部的背景图完全对齐。而在 Windows 中使用浏览器时,该效果可以正常实现。然而,在苹果电脑的浏览器中却出现了明显的色差。 原因分析: 如果您已经排除屏幕分辨率差异的可能性,那么很可能是背景图的 backgro…

    2025年12月24日
    000
  • Bear 博客上的浅色/深色模式分步指南

    我最近使用偏好颜色方案媒体功能与 light-dark() 颜色函数相结合,在我的 bear 博客上实现了亮/暗模式切换。 我是这样做的。 第 1 步:设置 css css 在过去几年中获得了一些很酷的新功能,包括 light-dark() 颜色函数。此功能可让您为任何元素指定两种颜色 &#8211…

    2025年12月24日
    100
  • 如何在 Web 开发中检测浏览器中的操作系统暗模式?

    检测浏览器中的操作系统暗模式 在 web 开发中,用户界面适应操作系统(os)的暗模式设置变得越来越重要。本文将重点介绍检测浏览器中 os 暗模式的方法,从而使网站能够针对不同模式调整其设计。 w3c media queries level 5 最新的 web 标准引入了 prefers-color…

    2025年12月24日
    000
  • 如何使用 CSS 检测操作系统是否处于暗模式?

    如何在浏览器中检测操作系统是否处于暗模式? 新发布的 os x 暗模式提供了在 mac 电脑上使用更具沉浸感的用户界面,但我们很多人都想知道如何在浏览器中检测这种设置。 新标准 检测操作系统暗模式的解决方案出现在 w3c media queries level 5 中的最新标准中: 立即学习“前端免…

    2025年12月24日
    000
  • 如何检测浏览器环境中的操作系统暗模式?

    浏览器环境中的操作系统暗模式检测 在如今科技的海洋中,越来越多的设备和软件支持暗模式,以减少对眼睛的刺激并营造更舒适的视觉体验。然而,在浏览器环境中检测操作系统是否处于暗模式却是一个令人好奇的问题。 检测暗模式的标准 要检测操作系统在浏览器中是否处于暗模式,web 开发人员可以使用 w3c 的媒体查…

    2025年12月24日
    200
  • 浏览器中如何检测操作系统的暗模式设置?

    浏览器中的操作系统暗模式检测 近年来,随着用户对夜间浏览体验的偏好不断提高,操作系统已开始引入暗模式功能。作为一名 web 开发人员,您可能想知道如何检测浏览器中操作系统的暗模式状态,以相应地调整您网站的设计。 新 media queries 水平 w3c 的 media queries level…

    2025年12月24日
    000
  • 正则表达式在文本验证中的常见问题有哪些?

    正则表达式助力文本输入验证 在文本输入框的验证中,经常遇到需要限定输入内容的情况。例如,输入框只能输入整数,第一位可以为负号。对于不会使用正则表达式的人来说,这可能是个难题。下面我们将提供三种正则表达式,分别满足不同的验证要求。 1. 可选负号,任意数量数字 如果输入框中允许第一位为负号,后面可输入…

    2025年12月24日
    000
  • 如何在 VS Code 中解决折叠代码复制问题?

    解决 VS Code 折叠代码复制问题 在 VS Code 中使用折叠功能可以帮助组织长代码,但使用复制功能时,可能会遇到只复制可见部分的问题。以下是如何解决此问题: 当代码被折叠时,可以使用以下简单操作复制整个折叠代码: 按下 Ctrl + C (Windows/Linux) 或 Cmd + C …

    2025年12月24日
    000
  • 我在学习编程的第一周学到的工具

    作为一个刚刚完成中学教育的女孩和一个精通技术并热衷于解决问题的人,几周前我开始了我的编程之旅。我的名字是OKESANJO FATHIA OPEYEMI。我很高兴能分享我在编码世界中的经验和发现。拥有计算机科学背景的我一直对编程提供的无限可能性着迷。在这篇文章中,我将反思我在学习编程的第一周中获得的关…

    2025年12月24日
    000
  • 为什么多年的经验让我选择全栈而不是平均栈

    在全栈和平均栈开发方面工作了 6 年多,我可以告诉您,虽然这两种方法都是流行且有效的方法,但它们满足不同的需求,并且有自己的优点和缺点。这两个堆栈都可以帮助您创建 Web 应用程序,但它们的实现方式却截然不同。如果您在两者之间难以选择,我希望我在两者之间的经验能给您一些有用的见解。 在这篇文章中,我…

    2025年12月24日
    000
  • 姜戈顺风

    本教程演示如何在新项目中从头开始配置 django 和 tailwindcss。 django 设置 创建一个名为 .venv 的新虚拟环境。 # windows$ python -m venv .venv$ .venvscriptsactivate.ps1(.venv) $# macos/linu…

    2025年12月24日
    000

发表回复

登录后才能评论
关注微信