使用Python从网站下载PDF并根据HTML文本自定义文件名

使用python从网站下载pdf并根据html文本自定义文件名

本教程详细介绍了如何使用Python从ASP网站下载PDF文件,并根据HTML “ 标签的显示文本来命名本地文件。通过`requests`库处理HTTP请求和`BeautifulSoup`解析HTML,我们能够准确提取下载链接和用户友好的文件名,解决了直接使用URL文件名不直观的问题。文章涵盖了环境设置、HTML解析、URL处理、文件下载与保存等关键步骤,并提供了完整的示例代码和注意事项。

在自动化数据抓取和文件下载的场景中,我们经常需要从网站上下载文件,并以一种更具描述性或用户友好的方式来命名这些文件,而不是简单地沿用URL中自带的文件名。特别是在处理动态生成的页面或链接时,HTML 标签的文本内容往往能提供比URL本身更清晰的文件描述。本教程将以从ASP网站下载PDF文件为例,详细讲解如何利用Python实现这一目标。

1. 准备工作

在开始之前,我们需要安装一些必要的Python库。requests库用于处理HTTP请求,而BeautifulSoup(通常与解析器如lxml或html.parser配合使用)则用于解析HTML内容。

pip install requests beautifulsoup4 lxml

接下来,导入所需的模块:

立即学习“Python免费学习笔记(深入)”;

import osimport requestsfrom bs4 import BeautifulSoup

2. 发送HTTP POST请求获取页面内容

许多网站,尤其是ASP站点,会通过POST请求来动态加载内容。我们需要模拟这种请求以获取包含PDF链接的HTML页面。这通常涉及构建请求的URL、headers以及请求体(payload)。

# 目标网站的基础URLbase_url = "https://www.svpo.nl/curriculum.asp"# 模拟浏览器发送请求的User-Agent,以避免被网站识别为爬虫headers = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 示例:定义需要请求的课程和科目klassen = ['1e klas']vakken = ['Wiskunde']# 定义文件保存的根目录output_root_path = r'c:ooks' # 使用原始字符串避免反斜杠转义问题# 循环处理每个课程和科目for klas in klassen:    for vak in vakken:        # 构建当前科目和课程的输出路径        current_output_path = os.path.join(output_root_path, klas, vak)        # 如果目录不存在,则创建它。exist_ok=True 避免目录已存在时报错        os.makedirs(current_output_path, exist_ok=True)        # 构建POST请求的payload        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        # 发送POST请求获取页面内容        try:            response = requests.post(base_url, data=payload, headers=headers, timeout=10)            response.raise_for_status() # 检查HTTP请求是否成功 (200 OK)            print(f"成功获取 {klas} - {vak} 的页面内容。")        except requests.exceptions.RequestException as e:            print(f"获取 {klas} - {vak} 页面内容失败: {e}")            continue # 跳过当前科目,处理下一个

3. 解析HTML内容提取PDF链接和名称

获取到页面HTML内容后,我们需要使用BeautifulSoup来解析它,找到所有指向PDF文件的链接,并提取其文本内容作为文件名。

        # 使用lxml解析器解析HTML内容        soup = BeautifulSoup(response.text, "lxml")        # 查找所有带有'href'属性的标签        all_links = soup.find_all('a', {'href': True})        for link_tag in all_links:            pdf_url = link_tag.get('href')            # 检查链接是否以'.pdf'结尾(不区分大小写)            if pdf_url and pdf_url.lower().endswith('.pdf'):                # 提取标签的文本内容作为文件名                # 例如:Chapter 3 - Weird science -> "Chapter 3 - Weird science"                display_name = link_tag.text.strip()                # 处理URL路径和文件名                # 网站URL中可能使用反斜杠,HTTP URL应使用正斜杠                pdf_url = pdf_url.replace('', '/')                # 构造本地保存的文件名。注意添加'.pdf'后缀                # 示例: "Chapter 3 - Weird science" -> "Chapter 3 - Weird science.pdf"                filename = f"{display_name}.pdf"                # 构建完整的本地文件路径                full_file_path = os.path.join(current_output_path, filename)                print(f"发现PDF: {display_url},将保存为: {full_file_path}")                # 下载并保存PDF文件                try:                    pdf_response = requests.get(pdf_url, stream=True, timeout=15) # 使用stream=True处理大文件                    pdf_response.raise_for_status()                    with open(full_file_path, 'wb') as f:                        for chunk in pdf_response.iter_content(chunk_size=8192):                            f.write(chunk)                    print(f"成功下载并保存: {filename}")                except requests.exceptions.RequestException as e:                    print(f"下载 {pdf_url} 失败: {e}")                except IOError as e:                    print(f"保存文件 {full_file_path} 失败: {e}")                print('---')

4. 完整示例代码

以下是整合了所有步骤的完整Python脚本,用于从ASP网站下载PDF文件并根据链接文本自定义文件名。

import osimport requestsfrom bs4 import BeautifulSoupdef download_pdfs_with_custom_names(base_url, output_root_path, klassen, vakken):    """    从指定ASP网站下载PDF文件,并根据HTML链接文本自定义文件名。    Args:        base_url (str): 目标网站的URL。        output_root_path (str): 文件保存的根目录。        klassen (list): 包含课程名称的列表。        vakken (list): 包含科目名称的列表。    """    headers = {        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'    }    print(f"开始从 {base_url} 下载PDF文件https://www.php.cn/link/263b1241243ca2dbeb358777ceabc4a2e4c")    for klas in klassen:        for vak in vakken:            current_output_path = os.path.join(output_root_path, klas, vak)            os.makedirs(current_output_path, exist_ok=True)            print(f"--- 处理 {klas} - {vak} ---")            payload = {'vak': vak, 'klas_en_schoolsoort': klas}            # 1. 发送POST请求获取页面内容            try:                response = requests.post(base_url, data=payload, headers=headers, timeout=10)                response.raise_for_status() # 检查HTTP请求是否成功                print(f"成功获取 {klas} - {vak} 的页面内容。")            except requests.exceptions.RequestException as e:                print(f"获取 {klas} - {vak} 页面内容失败: {e}")                continue            # 2. 解析HTML内容提取PDF链接和名称            soup = BeautifulSoup(response.text, "lxml")            all_links = soup.find_all('a', {'href': True})            pdfs_found = False            for link_tag in all_links:                pdf_url = link_tag.get('href')                if pdf_url and pdf_url.lower().endswith('.pdf'):                    pdfs_found = True                    display_name = link_tag.text.strip()                    # 统一URL中的斜杠,确保HTTP请求正确                    pdf_url = pdf_url.replace('', '/')                    # 构造本地保存的文件名                    filename = f"{display_name}.pdf"                    # 清理文件名中可能存在的非法字符(Windows/Linux路径限制)                    # 这是一个简单的清理,更健壮的方案可能需要正则表达式                    # 这里假设 display_name 已经相对干净                    invalid_chars = ':"/|?*'                    for char in invalid_chars:                        filename = filename.replace(char, '_')                    full_file_path = os.path.join(current_output_path, filename)                    print(f"  - 发现PDF: {pdf_url}")                    print(f"    将保存为: {full_file_path}")                    # 3. 下载并保存PDF文件                    try:                        # 使用 stream=True 和 iter_content 处理大文件,节省内存                        pdf_response = requests.get(pdf_url, stream=True, timeout=15)                        pdf_response.raise_for_status()                        with open(full_file_path, 'wb') as f:                            for chunk in pdf_response.iter_content(chunk_size=8192):                                f.write(chunk)                        print(f"    成功下载并保存: {filename}")                    except requests.exceptions.RequestException as e:                        print(f"    下载 {pdf_url} 失败: {e}")                    except IOError as e:                        print(f"    保存文件 {full_file_path} 失败: {e}")            if not pdfs_found:                print(f"  - 未在 {klas} - {vak} 页面中找到任何PDF链接。")    print("所有PDF下载任务完成。")# 配置参数并运行脚本if __name__ == "__main__":    target_base_url = "https://www.svpo.nl/curriculum.asp"    output_directory = r'c:ooks' # Windows路径建议使用原始字符串    # 示例课程和科目列表,可以根据需要扩展    target_klassen = ['1e klas']    target_vakken = ['Wiskunde']    # target_vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis',     #                  'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',    #                  'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal',     #                  'Loopbaanorientatie','NLT']    download_pdfs_with_custom_names(target_base_url, output_directory, target_klassen, target_vakken)

5. 注意事项与最佳实践

错误处理: 在网络请求和文件操作中,错误是常见的。示例代码中包含了try-except块来捕获requests相关的异常(如网络连接问题、HTTP状态码非200)和IOError(如文件写入权限问题),这对于程序的健壮性至关重要。User-Agent: 设置User-Agent请求头是模拟浏览器行为的关键。一些网站会检查此头信息,如果缺失或设置为默认值,可能会拒绝请求。URL中的反斜杠: 在Windows路径中,反斜杠是分隔符。但在HTTP URL中,正斜杠/才是标准分隔符。某些网站的href属性可能会错误地使用反斜杠。在下载前,务必使用pdf_url.replace(”, ‘/’)进行替换,以确保URL的正确性。文件名合法性: link.text可能包含特殊字符,在某些操作系统(尤其是Windows)中,这些字符不允许出现在文件名中(例如:”/|?*)。在保存文件前,建议对filename进行清理,替换或移除这些非法字符,以避免IOError。示例代码中提供了一个简单的清理方式。大文件下载: 对于大型PDF文件,使用requests.get(url, stream=True)并在iter_content中分块写入文件,可以避免一次性将整个文件加载到内存中,从而节省内存并提高效率。超时设置: 在requests.post和requests.get中设置timeout参数可以防止程序因网络无响应而无限期等待。os.path.join: 使用os.path.join来拼接文件路径是跨平台兼容的最佳实践,它会自动根据操作系统的不同使用正确的路径分隔符。os.makedirs(https://www.php.cn/link/263b1241243ca2dbeb358777ceabc4a2e4c, exist_ok=True): 创建目录时,使用exist_ok=True可以避免在目录已存在时抛出错误,使代码更简洁。

总结

本教程详细演示了如何使用Python的requests和BeautifulSoup库,从动态生成的网页中提取PDF下载链接和用户友好的显示名称,并将其保存到本地文件系统。通过自定义文件名,我们不仅提高了下载文件的可读性,也展示了Python在网页内容自动化处理方面的强大能力。掌握这些技术,您可以更高效地进行网络数据抓取和文件管理。

以上就是使用Python从网站下载PDF并根据HTML文本自定义文件名的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1598726.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月23日 13:11:02
下一篇 2025年12月23日 13:11:09

相关推荐

  • JavaScript中通过类名选择器获取DOM元素ID的教程

    本教程旨在指导开发者如何在javascript中,从通过`getelementsbyclassname()`方法获取的dom元素集合中,准确地提取和使用单个元素的id属性。文章将澄清`id`作为元素属性而非方法的概念,并通过具体代码示例展示如何遍历集合并访问每个元素的id,以实现更精细的dom操作。…

    2025年12月23日
    000
  • Bootstrap 5 导航栏展开时元素居中对齐指南

    本教程旨在解决bootstrap 5导航栏在从offcanvas模式展开至大屏幕时,其内部元素无法居中对齐的问题。核心解决方案涉及调整flexbox布局,具体是通过在offcanvas-body元素上添加justify-content-center类,并从navbar-nav元素中移除flex-gr…

    2025年12月23日
    000
  • 实现交互式登录注册表单过渡效果教程

    本教程详细讲解如何使用html、css和javascript构建一个带有平滑过渡效果的登录注册表单。我们将重点剖析css选择器在实现复杂动画中的关键作用,特别是如何通过正确使用类选择器来控制子元素的动画行为,解决常见的过渡失效问题,并提供完整的代码示例和实现细节。 在现代网页设计中,为用户提供流畅、…

    2025年12月23日
    000
  • CSS高级选择器:在严格限制下使用:has()和:not()精准定位元素

    本教程探讨如何在极度受限的css选择器规则下,精准定位复杂html结构中的特定元素,特别是不允许使用`:nth`系列伪类、属性选择器及相邻/通用兄弟选择器的情况。我们将深入解析如何巧妙结合`:has()`和`:not()`伪类,通过父子关系和层级排除实现目标选择,并提供详细的代码示例与浏览器兼容性考…

    2025年12月23日
    000
  • 实现点击外部区域隐藏侧边栏的JavaScript/jQuery教程

    本教程详细介绍了如何使用javascript和jquery实现点击侧边栏外部区域时自动隐藏侧边栏的功能。文章将深入讲解事件传播机制,并通过具体的代码示例演示如何利用`stoppropagation()`方法来精确控制点击事件的行为,确保用户体验的流畅性和交互的直观性。 侧边栏外部点击隐藏机制实现 在…

    2025年12月23日 好文分享
    000
  • 在DIV中实现文本侧向显示的CSS技巧

    本教程详细介绍了在响应式布局中,如何利用CSS实现文本的侧向或垂直显示。我们将探讨两种主要方法:一是运用CSS transform 属性进行精确旋转和定位,适用于自定义角度需求;二是结合 writing-mode 与 scale 属性实现从下到上的垂直书写模式。文章将提供具体的代码示例,并分析每种方…

    2025年12月23日
    000
  • CSS实现子元素在父元素内全宽滑动动画教程

    本教程详细介绍了如何使用纯css实现子元素在父容器内悬停时平滑滑动其父元素完整宽度的动画效果。文章通过两种核心方法——结合绝对定位与`transform`,以及利用`margin-left`与`translate`,解决了`translatex`百分比参照自身宽度而非父容器的问题,并提供了详细的代码…

    2025年12月23日
    000
  • 响应式HTML表格设计:优化移动端显示与布局

    本教程旨在解决html表格在移动设备上显示不佳的问题。通过采用css的table-layout: fixed属性并为表格列设置明确的宽度,可以有效控制表格布局,防止内容溢出或错位。文章将详细介绍如何利用这些css技巧,结合适当的字体和边框样式,确保表格在不同屏幕尺寸下保持清晰、可读且布局稳定。 在现…

    2025年12月23日
    000
  • 浏览器安全模型:file://与http://协议下的SVG动态操作差异

    本文深入探讨了在浏览器中通过`file://`协议直接打开文件与通过`http://`协议(如live server)访问网页时,行为上的关键差异。重点分析了在“标签中嵌入svg并尝试使用`contentdocument`进行动态操作时,为何`file://`环境下会因浏览器安全限制(如跨域资源共…

    好文分享 2025年12月23日
    000
  • 高效实现滚动时画廊项动态匹配与样式切换:纯JavaScript教程

    本教程旨在解决滚动内容与静态画廊同步显示的问题,避免为每个元素编写重复代码。我们将介绍一种纯JavaScript方法,通过索引匹配滚动区域元素与画廊项,并利用`getBoundingClientRect()`API精确判断元素是否进入视口,从而动态切换画廊项的样式,实现灵活且可扩展的用户体验。 引言…

    2025年12月23日 好文分享
    000
  • 使用 Jinja2 动态渲染多张图片到 HTML 文件的完整教程

    本教程详细介绍了如何利用 jinja2 模板引擎,通过 python 代码动态地将多张图片加载并渲染到 html 文件中。核心方法是构建一个包含图片元数据的列表字典作为数据源,并结合 jinja2 的 `for` 循环结构遍历数据,从而高效生成包含多张图片的 html 内容。 在 Web 开发中,经…

    2025年12月23日 好文分享
    000
  • Tailwind CSS:实现Div元素垂直对齐到底部的实用指南

    本文详细介绍了如何使用tailwind css将div元素垂直对齐到其父容器的底部。核心方法包括利用flexbox的`flex flex-col`与`mt-auto`,或者通过嵌套flex容器结合`items-end`与`h-screen`来精确控制元素位置。文章提供了清晰的代码示例和关键类解释,旨…

    2025年12月23日
    000
  • 深入解析Angular中循环计算与数组操作的常见陷阱及优化实践

    本文深入探讨了angular应用中处理循环计算和动态数组时常见的逻辑错误。通过一个租金计算器示例,我们分析了`for`循环中未能正确累加迭代值以及数组填充不当的问题,并提供了详细的解决方案,包括优化计算逻辑、正确使用数组`push`方法,以及遵循typescript和javascript的最佳实践,…

    2025年12月23日
    000
  • 深入理解HTML元素的状态表示:布尔属性的应用

    html元素通过布尔属性(boolean attributes)来声明其初始或当前的状态,这些属性的存在与否直接影响元素的行为和视觉表现。本文将深入探讨常见的html状态属性,包括脚本加载、媒体播放、表单交互等多种场景下的应用,并提供示例代码,帮助开发者更好地利用这些属性构建更具声明性和交互性的网页…

    2025年12月23日
    000
  • JavaScript中高效渲染API数据列表:避免动态内容覆盖的实践指南

    本教程旨在解决前端开发中常见的api数据渲染问题,特别是如何避免在循环中错误地覆盖dom内容。我们将深入探讨如何利用javascript的`array.prototype.map`方法结合`join(“”)`来高效地从api获取数据,并将其动态生成为html列表,确保所有数据…

    2025年12月23日
    000
  • 避免表单提交后页面刷新并保留数据与显示错误:AJAX与PHP实践

    本教程详细讲解如何通过前端ajax技术与后端php配合,实现在表单提交后不刷新页面的前提下,进行数据验证、保留用户输入,并动态显示错误信息。文章将首先介绍传统php方式下保留表单数据的技巧,进而深入探讨使用javascript fetch api进行异步提交,以及后端php如何返回json响应,从而…

    2025年12月23日
    000
  • CSS布局优化:解决网页顶部多余间隙的实用技巧

    本文旨在解决网页顶部出现意外间隙的问题,这种现象常由浏览器默认样式或不当的css配置引起。我们将深入探讨如何通过css的 `margin-top` 属性来精确消除这些多余的空间,并提供实用的代码示例和调试技巧。文章还将涵盖浏览器默认样式、css重置以及如何利用开发者工具定位并解决此类布局问题,帮助开…

    2025年12月23日
    000
  • 解决HTML中图片不显示问题:理解并使用相对路径

    本文详细讲解了在html中引用本地图片时,图片无法在浏览器中显示的问题及其解决方案。核心在于避免使用绝对文件路径,转而采用相对路径来正确链接图片资源,确保网页在不同环境下都能正常加载图片,并提供了项目文件结构和代码实践建议,帮助开发者构建健壮的网页应用。 在网页开发中,图片是不可或缺的元素。然而,许…

    2025年12月23日
    000
  • 实现HTML/CSS平滑无限水平滚动动画教程

    本教程旨在解决HTML/CSS中实现无限水平滚动动画时出现的“跳跃”问题。我们将深入探讨导致不平滑循环的原因,并提供两种主要的解决方案:利用CSS `background-position`属性实现重复背景的无缝滚动,以及通过巧妙运用`translateX`百分比值(如`100%`到`-100%`)…

    2025年12月23日
    000
  • 解决W3 Schools图片轮播初始堆叠问题:优化JavaScript加载时机

    本文旨在解决使用w3 schools图片轮播组件时,页面加载初期图片出现垂直堆叠的常见问题。核心原因在于javascript脚本的加载与执行时机不当。通过将操作dom的javascript代码放置在html ` ` 标签的末尾,确保dom元素完全加载后再执行脚本,可以有效避免图片堆叠现象,实现流畅的…

    2025年12月23日
    000

发表回复

登录后才能评论
关注微信