使用Python从网页下载PDF并根据链接文本自定义文件名教程

使用Python从网页下载PDF并根据链接文本自定义文件名教程

在web数据抓取和自动化任务中,从网站下载文件是一项常见需求。然而,有时我们希望下载的文件名不仅仅是url中自带的名称,而是网页上显示给用户的、更具描述性的文本。例如,一个链接可能显示为“chapter 3 – weird science”,但其指向的pdf文件url可能包含难以理解的编码或不友好的文件名。本教程将指导您如何使用python实现这一目标,从动态生成的asp页面中抓取pdf文件,并以其对应的链接文本作为文件名进行保存。

前置条件

在开始之前,请确保您的Python环境中安装了以下库:

requests: 用于发送HTTP请求,包括POST和GET。BeautifulSoup4: 用于解析HTML内容,方便提取所需数据。

您可以通过以下命令安装它们:

pip install requests beautifulsoup4 lxml

核心概念与步骤

整个过程可以分解为以下几个关键步骤:

发送HTTP POST请求获取页面内容:对于一些动态网站,如本例中的ASP页面,可能需要通过POST请求提交表单数据(如课程、班级信息)才能获取到包含PDF链接的HTML内容。解析HTML,提取PDF链接及其对应的显示文本:使用BeautifulSoup解析响应的HTML,找到所有指向PDF文件的标签,并同时获取其href属性(PDF链接)和标签内部的文本内容(我们希望作为文件名的部分)。构建本地保存路径:根据下载文件的分类需求,创建相应的本地目录结构。自定义文件名:利用第2步获取到的链接文本作为文件名,并添加.pdf后缀。下载PDF文件并保存到本地:对每个PDF链接发送HTTP GET请求,获取文件二进制内容,然后将其写入到本地指定路径。

详细实现

我们将通过一个具体的例子来演示上述步骤。假设我们需要从一个教育网站下载特定班级和科目的PDF资料。

立即学习“Python免费学习笔记(深入)”;

1. 导入所需库

首先,导入我们将用到的所有库:

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse # 尽管在本例中可能不直接用于URL编码,但了解其用途很重要

2. 配置请求参数和目标路径

定义目标URL、HTTP请求头、要查询的班级和科目,以及本地文件保存的根目录。

# 定义目标URL和HTTP请求头base_url = "https://www.svpo.nl/curriculum.asp"headers = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义要查询的班级和科目klassen = ['1e klas']vakken = ['Wiskunde'] # 可以扩展为更多科目# 定义PDF文件保存的根目录# 使用原始字符串r''以避免转义问题,并确保路径分隔符的正确性path_out_root = r'c:ooks' 

3. 遍历科目和班级,获取并下载PDF

这是核心逻辑部分,我们将循环遍历定义的班级和科目,对每个组合执行以下操作:

构建POST请求的payload。发送POST请求获取包含PDF链接的HTML。解析HTML,找到所有包含href属性的标签。过滤出.pdf链接。关键步骤:使用link.text作为文件名。下载PDF文件。

for klas in klassen:     for vak in vakken:         # 构建当前科目和班级的本地保存路径        # os.path.join 确保跨操作系统的路径兼容性        current_save_path = os.path.join(path_out_root, klas, vak)        # 创建目录,如果已存在则忽略错误        os.makedirs(current_save_path, exist_ok=True)        # 构建POST请求的表单数据        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        # 发送POST请求获取HTML内容        print(f"正在获取 {klas} - {vak} 的课程页面...")        response_page = requests.post(base_url, data=payload, headers=headers)        response_page.raise_for_status() # 检查请求是否成功        # 使用BeautifulSoup解析HTML        soup = BeautifulSoup(response_page.text, "lxml")        # 查找所有带有href属性的标签        all_links = soup.find_all('a', {'href': True})        for link_tag in all_links:            pdf_url = link_tag.get('href')            # 检查链接是否以.pdf结尾(不区分大小写)            if pdf_url and pdf_url.lower().endswith('.pdf'):                # 统一URL中的路径分隔符,将反斜杠替换为正斜杠                # 某些网站的URL可能使用反斜杠,这在标准URL中是非法的                pdf_url = pdf_url.replace('', '/')                # 构建完整的PDF下载链接(如果原始链接是相对路径,需要拼接base_url)                # 这里假设pdf_url已经是完整的URL,如果不是,需要进一步处理                # 例如:full_pdf_url = urlparse.urljoin(base_url_of_page_containing_link, pdf_url)                # 提取链接文本作为文件名,并添加.pdf后缀                # link_tag.text 获取标签的显示文本                filename = link_tag.text.strip() + '.pdf'                # 构建完整的本地文件路径                full_local_path = os.path.join(current_save_path, filename)                print(f"  - 发现PDF: {filename}")                print(f"    下载地址: {pdf_url}")                print(f"    保存至: {full_local_path}")                try:                    # 发送GET请求下载PDF文件                    response_pdf = requests.get(pdf_url, stream=True) # 使用stream=True处理大文件                    response_pdf.raise_for_status() # 检查PDF下载请求是否成功                    # 以二进制写入模式保存文件                    with open(full_local_path, 'wb') as f:                        for chunk in response_pdf.iter_content(chunk_size=8192):                            f.write(chunk)                    print(f"    下载成功: {filename}")                except requests.exceptions.RequestException as e:                    print(f"    下载失败 {pdf_url}: {e}")                except IOError as e:                    print(f"    文件写入失败 {full_local_path}: {e}")                print('---')

完整示例代码

将上述所有代码片段整合,形成一个完整的Python脚本:

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse # 导入urlparse以备不时之需,尽管本例中未直接使用其编码功能# 定义目标URL和HTTP请求头base_url = "https://www.svpo.nl/curriculum.asp"headers = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义要查询的班级和科目klassen = ['1e klas']vakken = ['Wiskunde']# 可以扩展为更多科目,例如:# vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis', #           'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',#           'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal', #           'Loopbaanorientatie','NLT']# 定义PDF文件保存的根目录# 使用原始字符串r''以避免转义问题,并确保路径分隔符的正确性path_out_root = r'c:ooks'print("开始下载PDF文件...")for klas in klassen:     for vak in vakken:         # 构建当前科目和班级的本地保存路径        # os.path.join 确保跨操作系统的路径兼容性        current_save_path = os.path.join(path_out_root, klas, vak)        # 创建目录,如果已存在则忽略错误        os.makedirs(current_save_path, exist_ok=True)        print(f"--- 处理班级: {klas}, 科目: {vak} ---")        # 构建POST请求的表单数据        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        try:            # 发送POST请求获取HTML内容            print(f"正在请求 {base_url} (POST) 获取课程页面...")            response_page = requests.post(base_url, data=payload, headers=headers, timeout=10)            response_page.raise_for_status() # 检查请求是否成功,如果状态码不是2xx则抛出异常            print("课程页面获取成功。")            # 使用BeautifulSoup解析HTML            soup = BeautifulSoup(response_page.text, "lxml")            # 查找所有带有href属性的标签            all_links = soup.find_all('a', {'href': True})            pdf_found_count = 0            for link_tag in all_links:                pdf_url = link_tag.get('href')                # 检查链接是否以.pdf结尾(不区分大小写),并且链接不为空                if pdf_url and pdf_url.lower().endswith('.pdf'):                    pdf_found_count += 1                    # 统一URL中的路径分隔符,将反斜杠替换为正斜杠                    # 某些网站的URL可能使用反斜杠,这在标准URL中是非法的                    pdf_url = pdf_url.replace('', '/')                    # 提取链接文本作为文件名,并添加.pdf后缀                    # link_tag.text 获取标签的显示文本,并去除首尾空白                    filename = link_tag.text.strip() + '.pdf'                    # 确保文件名在文件系统中的合法性,例如移除特殊字符                    # 这里可以添加额外的清理逻辑,例如:                    # import re                    # filename = re.sub(r'[/:*?"|]', '', filename) # 移除Windows不允许的字符                    # 构建完整的本地文件路径                    full_local_path = os.path.join(current_save_path, filename)                    print(f"  - 发现PDF (No.{pdf_found_count}):")                    print(f"    原始链接: {pdf_url}")                    print(f"    自定义文件名: {filename}")                    print(f"    保存路径: {full_local_path}")                    try:                        # 发送GET请求下载PDF文件                        # stream=True 允许我们分块下载,适用于大文件,避免一次性加载到内存                        response_pdf = requests.get(pdf_url, stream=True, headers=headers, timeout=30)                        response_pdf.raise_for_status() # 检查PDF下载请求是否成功                        # 以二进制写入模式保存文件                        with open(full_local_path, 'wb') as f:                            for chunk in response_pdf.iter_content(chunk_size=8192): # 每次读取8KB                                f.write(chunk)                        print(f"    下载成功: {filename}")                    except requests.exceptions.RequestException as e:                        print(f"    下载失败 {pdf_url}: {e}")                    except IOError as e:                        print(f"    文件写入失败 {full_local_path}: {e}")                    print('---')            if pdf_found_count == 0:                print(f"  未在 {klas} - {vak} 页面中找到任何PDF链接。")        except requests.exceptions.RequestException as e:            print(f"获取 {klas} - {vak} 课程页面失败: {e}")        except Exception as e:            print(f"处理 {klas} - {vak} 时发生未知错误: {e}")print("所有PDF下载任务完成。")

注意事项与最佳实践

错误处理:在网络请求和文件操作中,错误是常见的。使用try-except块捕获requests.exceptions.RequestException(网络错误、HTTP错误)和IOError(文件写入错误)可以增强脚本的健壮性。User-Agent:设置User-Agent请求头是模拟浏览器行为的重要一步,可以避免某些网站的反爬虫机制。路径管理:始终使用os.path.join()来拼接路径,这能确保脚本在不同操作系统(Windows、Linux、macOS)上的兼容性,因为它们使用不同的路径分隔符。os.makedirs(path, exist_ok=True)则可以避免目录已存在时抛出错误。文件名合法性:从网页文本中提取的文件名可能包含操作系统不允许的字符(如、/、:、*、?、”、、|)。在保存文件前,最好对文件名进行清理,替换或移除这些非法字符,以避免文件创建失败。大文件下载:对于可能较大的PDF文件,使用requests.get(url, stream=True)并结合response.iter_content(chunk_size=…)进行分块下载,可以避免将整个文件一次性加载到内存中,从而节省内存资源。URL处理:注意处理URL中的路径分隔符。在Windows系统中,文件路径可能使用反斜杠,但标准URL通常使用正斜杠/。本教程中pdf_url.replace(”, ‘/’)是必要的。此外,如果href属性提供的是相对路径,您需要使用urlparse.urljoin()来构建完整的URL。超时设置:在requests.post和requests.get中添加timeout参数,可以防止请求长时间无响应导致脚本挂起。

总结

通过本教程,您应该已经掌握了如何使用Python的requests和BeautifulSoup库,从动态网页中抓取PDF文件,并根据链接的显示文本自定义文件名。这种方法不仅提高了下载文件的可读性和管理效率,也展示了Python在网页自动化和数据处理方面的强大能力。记住,在进行任何网页抓取活动时,请务必遵守网站的服务条款和相关法律法规。

以上就是使用Python从网页下载PDF并根据链接文本自定义文件名教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1598987.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月23日 13:23:44
下一篇 2025年12月23日 13:24:01

相关推荐

  • React与Bootstrap布局:实现Card顶部间距而不影响背景图像

    在使用React和Bootstrap 5构建界面时,为卡片(Card)应用`margin-top`类(如`mt-5`)可能会意外地将其父容器的背景图像一同下推。本教程将深入探讨这一常见的布局问题,并提供一个简洁有效的解决方案:通过巧妙利用CSS盒模型原理,在卡片的直接父容器上应用`padding-t…

    2025年12月23日
    000
  • 解决全屏模式下背景图片缩放问题的CSS技巧

    本文旨在解决网页背景图片在进入全屏模式时发生意外缩放的问题。通过深入分析`background-size`属性的不同值,特别是`cover`和`contain`,我们将展示如何利用css精确控制背景图片的显示行为,确保其在各种屏幕分辨率下,包括全屏状态,都能保持预期的大小和位置,从而提供流畅的用户体…

    2025年12月23日
    000
  • 掌握Flexbox布局:解决Div元素自动换行问题

    本文详细讲解如何利用CSS Flexbox布局解决Div元素自动换行的问题。通过将所有需要水平排列的子元素放入一个单一的Flex容器中,并正确设置`display: flex`和`flex-direction: row`,实现元素的并排显示,避免了传统布局中常见的换行困扰,提升页面布局的灵活性和响应…

    2025年12月23日 好文分享
    000
  • 在Bootstrap轮播图中叠加标题与文本并实现垂直居中

    本教程详细指导如何在Bootstrap轮播图(Carousel)中添加标题和描述性文本,并确保这些文本内容能够完美地叠加在图片上方并实现垂直居中。通过结合Bootstrap内置的carousel-caption结构和自定义CSS样式,读者将学会如何优化轮播图的视觉呈现,提升用户体验。 在现代网页设计…

    2025年12月23日 好文分享
    000
  • JavaScript Fetch API:高效渲染动态列表数据的实践指南

    当使用 javascript 的 fetch api 从后端获取列表数据并尝试将其渲染到 html 页面时,开发者常会遇到一个问题:页面上只显示了列表中的最后一项数据。本教程将深入分析这一常见错误,揭示传统循环中变量覆盖的根源,并提供一个基于 `array.prototype.map()` 和 `a…

    2025年12月23日 好文分享
    000
  • PHP表单提交后防止页面刷新并保留数据与错误提示

    本文旨在解决传统%ignore_a_1%表单提交后页面刷新导致用户体验不佳的问题,特别是数据丢失和错误提示无法保留的困境。我们将详细介绍如何通过在服务器端利用`$_post`数据预填充表单字段,以及如何有效地显示验证错误,从而在不刷新页面的情况下保留用户输入。此外,还将探讨使用ajax进行异步提交的…

    2025年12月23日
    000
  • JavaScript实现带倒计时和持久化的按钮禁用与自动启用功能

    本文详细介绍了如何使用JavaScript和Web Storage API(localStorage)实现一个功能,该功能允许按钮在点击后禁用指定时长,并在页面刷新后仍能保持禁用状态,待设定的时间结束后自动重新启用。教程将涵盖核心概念、实现步骤、示例代码及注意事项,帮助开发者构建具备时间限制和状态持…

    2025年12月23日
    000
  • 使用Mutt发送包含嵌入式图片的HTML邮件指南

    本教程详细介绍了如何使用`mutt`发送包含嵌入式图片的html邮件。针对常见的问题,如图片显示为附件或破损,我们分析了`cid:`和本地路径引用的局限性。核心解决方案是利用外部url来引用图片,这能显著提高兼容性并避免邮件服务提供商的限制。文章提供了具体的操作步骤、代码示例,并探讨了这种方法的优缺…

    2025年12月23日 好文分享
    000
  • 动态DOM操作:点击祖父元素时移除特定类与子孙节点

    本教程详细讲解如何使用javascript处理dom事件,实现在点击特定祖父元素(标签)时,不仅移除其自身的css类,还能同时查找并删除具有特定类的子孙元素。通过事件监听器和dom查询方法,实现页面元素的动态交互和管理,提升用户体验和页面功能性。 引言:动态DOM操作的需求 在现代Web开发中,我们…

    2025年12月23日
    000
  • JavaScript中HTML标签转义:如何选择性保留特定标签

    本文旨在探讨在JavaScript中如何将HTML标签转换为实体字符(如将“),使其不被转义。我们将详细介绍如何利用正则表达式中的负向先行断言来实现这一精确的字符串替换需求,并提供示例代码及注意事项,以帮助开发者更灵活地处理HTML内容显示。 在Web开发中,我们经常需要将包含HTML标…

    2025年12月23日
    000
  • 优化HTML表格行淡入淡出动画,避免布局抖动

    本文旨在解决html表格行在连续淡入淡出动画过程中可能出现的布局抖动问题。通过分析同步动画的潜在影响,我们将介绍一种基于jquery的改进方法,即通过引入适当的延迟,确保淡出动画完成后再执行淡入动画,从而实现更稳定、流畅的表格行切换效果,提升用户体验。 在网页开发中,为表格行添加淡入淡出(fade …

    2025年12月23日
    000
  • 将Python命令行应用集成到Django Web项目:以计时器为例

    本文将指导您如何将一个独立的python命令行计时器应用程序改造并集成到django web项目中。我们将详细介绍如何利用django的视图、模板和表单系统来捕获用户输入,并将原有的python逻辑适配到web环境,同时探讨在web应用中处理后台任务和用户通知的策略,帮助初学者顺利过渡。 从命令行到…

    好文分享 2025年12月23日
    000
  • JavaScript字符串操作:批量替换HTML标签名为指定元素

    本教程探讨如何在javascript中高效地将字符串内所有html标签的名称统一替换为指定元素,例如将所有和 标签转换为 。我们将重点介绍如何利用正则表达式实现这一目标,并通过详细的代码示例进行说明。同时,文章也将强调在处理html时使用正则表达式的适用场景与局限性,并提供相关注意事项。 在Java…

    2025年12月23日
    000
  • PHP表单提交与数据库插入故障排除:关键的name属性

    本文旨在解决PHP表单提交后数据未能成功插入数据库的问题,尤其是在处理注册或登录功能时。核心问题通常源于HTML表单提交按钮缺少`name`属性,导致服务器端PHP脚本无法通过`$_POST`超全局变量正确识别提交动作。教程将详细阐述其原理,提供正确的代码示例,并探讨相关最佳实践。 1. 理解PHP…

    2025年12月23日
    000
  • CSS 高级选择器技巧:在严格限制下选择首尾子元素

    本文探讨了在极端CSS选择器限制下,如何巧妙地定位元素的第一个或最后一个子元素。通过分析div:not(:not(:first-child):not(:last-child))这一双重否定选择器,文章详细解释了其逻辑,即等同于选择是第一个子元素或是最后一个子元素的元素,并结合实际HTML代码进行演示…

    2025年12月23日
    000
  • CSS技巧:实现子元素在父元素悬停时横向滑动完整宽度

    本教程详细介绍了如何利用css实现子元素在父元素悬停时,横向滑动与父元素宽度等长的动画效果。文章解释了`transform: translatex(100%)`的常见误区,并提供了两种有效的纯css解决方案:结合绝对定位的`left`和`transform`属性,以及使用`margin-left`和…

    2025年12月23日
    000
  • CSS高级选择器挑战:在无:nth与兄弟选择器限制下精准定位嵌套元素

    本文探讨了在严格的css选择器限制下,如何精准定位html嵌套结构中的特定元素。面对禁止使用`:nth`系列伪类、兄弟选择器及属性选择器等条件,文章通过深入分析dom结构,巧妙运用`:has()`和`:not()`等高级css选择器,构建出一个单一且高效的解决方案,旨在帮助开发者在复杂场景下实现精确…

    2025年12月23日
    000
  • JavaScript 中高效替换字符串内所有指定字符间子串的教程

    本教程旨在详细讲解如何在 JavaScript 中高效地替换字符串中所有 HTML 标签的名称,例如将所有 “ 或 ` ` 替换为 ` `。我们将重点介绍使用正则表达式的简洁而强大的方法,并探讨其适用场景及局限性。同时,也会简要提及手动字符解析的替代方案及其劣势,帮助开发者选择最合适的解…

    2025年12月23日
    000
  • React/Bootstrap中卡片顶部边距与背景图定位的协调处理

    在使用react和bootstrap 5开发界面时,为卡片(card)应用`margin-top`(如`mt-5`)可能会导致其父元素的背景图片也被一同向下推动,破坏布局。本文将详细介绍这一常见问题的原因,并提供一个简洁有效的解决方案:通过在卡片外部的父容器上应用`padding-top`,而非直接…

    2025年12月23日
    000
  • JavaScript 选项卡式图库中内容(图片与文本)的联动显示与隐藏

    本文旨在解决javascript选项卡式图库中图片与相关文本内容无法同步显示与隐藏的问题。通过采用事件委托机制、优化html结构以统一管理图片及其描述文本,并利用`hidden`属性进行可见性控制,我们提供了一种简洁高效的解决方案。该方法确保了用户在切换图库选项时,所有相关内容(包括图片和文本)都能…

    2025年12月23日 好文分享
    000

发表回复

登录后才能评论
关注微信