Python与BeautifulSoup:从网站下载PDF并自定义文件名

python与beautifulsoup:从网站下载pdf并自定义文件名

本文将详细介绍如何使用Python的requests和BeautifulSoup库,从动态生成的ASP网站上抓取PDF文件链接,并利用HTML链接的显示文本作为下载文件的本地文件名。教程涵盖了HTTP POST请求、HTML解析、URL处理、文件下载与保存等核心步骤,旨在提供一个结构清晰、实用的网页内容自动化下载解决方案。

1. 概述

在进行网页内容抓取时,经常会遇到需要下载特定文件(如PDF、图片等)并以更具描述性的名称保存它们的需求。传统的下载方式可能只提供一个由URL路径生成的默认文件名,这通常不够直观。本教程将聚焦于一个常见场景:从一个通过POST请求动态加载内容的ASP网站上,识别并下载PDF文件,同时将HTML中对应的标签文本作为本地文件名。

我们将使用以下Python库:

requests: 用于发送HTTP请求(GET和POST)。BeautifulSoup: 用于解析HTML内容,方便地提取所需元素和属性。os: 用于文件系统操作,如创建目录和构建文件路径。

2. 环境准备与库导入

首先,确保你的Python环境中安装了requests和BeautifulSoup库。如果没有,可以通过pip进行安装:

立即学习“Python免费学习笔记(深入)”;

pip install requests beautifulsoup4 lxml

接下来,在你的Python脚本中导入必要的模块:

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse # 用于URL处理,尽管在本例中主要用于替换路径分隔符

3. 配置请求参数与输出路径

为了与目标网站进行交互并保存文件,我们需要定义请求的URL、HTTP头部、POST请求体以及本地文件输出路径。

# 目标网站的基础URLBASE_URL = "https://www.svpo.nl/curriculum.asp"# 模拟浏览器行为的HTTP头部HEADERS = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义要抓取的分类和科目(作为POST请求的payload)klassen = ['1e klas']vakken = ['Wiskunde'] # 可以扩展此列表以抓取更多科目# 本地PDF文件保存的根目录OUTPUT_ROOT_PATH = r'c:ooks' # 注意使用原始字符串r''以避免反斜杠转义问题

4. 发送POST请求并解析HTML

目标网站通过POST请求动态加载内容。我们需要为每个“班级”和“科目”组合发送一个POST请求,然后解析返回的HTML内容以找到PDF链接。

for klas in klassen:    for vak in vakken:        # 构建当前科目和班级的本地保存路径        current_save_path = os.path.join(OUTPUT_ROOT_PATH, klas, vak)        # 确保目录存在,如果不存在则创建,exist_ok=True避免目录已存在时报错        os.makedirs(current_save_path, exist_ok=True)        # 构建POST请求的表单数据        payload = {'vak': vak, 'klas_en_schoolsoort': klas}        print(f"正在处理:班级 '{klas}', 科目 '{vak}'")        try:            # 发送POST请求            response = requests.post(BASE_URL, data=payload, headers=HEADERS)            response.raise_for_status() # 检查HTTP请求是否成功 (200 OK)            # 使用BeautifulSoup解析响应的HTML内容            soup = BeautifulSoup(response.text, "lxml")            # 查找所有带有href属性的标签            all_links = soup.find_all('a', {'href': True})            # ... 后续步骤将在此处处理找到的链接        except requests.exceptions.RequestException as e:            print(f"请求失败:{e}")            continue # 继续处理下一个科目或班级

5. 提取PDF链接与自定义文件名

这是实现核心功能的部分。我们需要遍历所有找到的标签,筛选出PDF链接,并提取其文本内容作为文件名。

        # ... (接上一步骤的循环内部) ...        for link_tag in all_links:            # 获取href属性值            href_url = link_tag.get('href')            # 检查链接是否以.pdf结尾(不区分大小写)            if href_url and href_url.lower().endswith('.pdf'):                # 统一URL中的路径分隔符,将反斜杠替换为正斜杠,以确保URL的正确性                download_url = href_url.replace('', '/')                # 从标签的文本内容中获取期望的本地文件名                # 例如:Chapter 3 - Weird science -> "Chapter 3 - Weird science.pdf"                filename_base = link_tag.text.strip() # .strip()去除首尾空白                # 构建完整的本地文件名,添加.pdf后缀                local_filename = filename_base + '.pdf'                # 构建PDF文件在本地的完整保存路径                full_local_path = os.path.join(current_save_path, local_filename)                print(f"  发现PDF: {filename_base}")                print(f"    下载链接: {download_url}")                print(f"    保存至: {full_local_path}")                # ... 后续步骤将在此处下载文件

6. 下载并保存PDF文件

使用requests.get()方法下载PDF文件的二进制内容,并将其写入本地文件。

                # ... (接上一步骤的循环内部) ...                try:                    # 发送GET请求下载PDF文件                    pdf_response = requests.get(download_url, headers=HEADERS, stream=True)                    pdf_response.raise_for_status() # 检查下载请求是否成功                    # 以二进制写入模式打开文件,并将下载内容分块写入                    with open(full_local_path, 'wb') as f:                        for chunk in pdf_response.iter_content(chunk_size=8192):                            f.write(chunk)                    print(f"    成功下载 '{local_filename}'")                except requests.exceptions.RequestException as e:                    print(f"    下载 '{download_url}' 失败: {e}")                except IOError as e:                    print(f"    保存文件 '{full_local_path}' 失败: {e}")                print('---') # 分隔不同PDF的处理信息

7. 完整示例代码

将以上所有步骤整合,形成一个完整的Python脚本:

import osimport requestsfrom bs4 import BeautifulSoupfrom urllib import parse as urlparse# 目标网站的基础URLBASE_URL = "https://www.svpo.nl/curriculum.asp"# 模拟浏览器行为的HTTP头部HEADERS = {    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}# 定义要抓取的分类和科目klassen = ['1e klas']vakken = ['Wiskunde']# 可以扩展此列表以抓取更多科目,例如:'''vakken = ['Engels','Aardrijkskunde','Economie', 'Filosofie','Frans', 'Geschiedenis',           'Nask', 'Natuurkunde', 'Nederlands', 'Scheikunde', 'Spaans', 'Wiskunde',          'Biologie', 'Duits', 'Grieks','Latijn','Leesmateriaal',           'Loopbaanorientatie','NLT']'''# 本地PDF文件保存的根目录OUTPUT_ROOT_PATH = r'c:ooks' # 使用原始字符串r''以避免反斜杠转义问题def download_pdfs_from_website():    """    从指定网站下载PDF文件,并使用链接文本作为文件名。    """    print("开始下载PDF文件...")    for klas in klassen:        for vak in vakken:            # 构建当前科目和班级的本地保存路径            current_save_path = os.path.join(OUTPUT_ROOT_PATH, klas, vak)            # 确保目录存在,如果不存在则创建            os.makedirs(current_save_path, exist_ok=True)            # 构建POST请求的表单数据            payload = {'vak': vak, 'klas_en_schoolsoort': klas}            print(f"--- 正在处理:班级 '{klas}', 科目 '{vak}' ---")            try:                # 发送POST请求获取HTML内容                response = requests.post(BASE_URL, data=payload, headers=HEADERS)                response.raise_for_status() # 检查HTTP请求是否成功                # 使用BeautifulSoup解析HTML                soup = BeautifulSoup(response.text, "lxml")                # 查找所有带有href属性的标签                all_links = soup.find_all('a', {'href': True})                found_pdfs_count = 0                for link_tag in all_links:                    href_url = link_tag.get('href')                    # 检查链接是否是PDF文件                    if href_url and href_url.lower().endswith('.pdf'):                        # 统一URL中的路径分隔符(将反斜杠替换为正斜杠)                        download_url = href_url.replace('', '/')                        # 从标签的文本内容中获取期望的本地文件名                        filename_base = link_tag.text.strip()                        # 构建完整的本地文件名                        local_filename = filename_base + '.pdf'                        # 构建PDF文件在本地的完整保存路径                        full_local_path = os.path.join(current_save_path, local_filename)                        print(f"  发现PDF: '{filename_base}'")                        print(f"    下载链接: {download_url}")                        print(f"    保存至: {full_local_path}")                        try:                            # 发送GET请求下载PDF文件                            pdf_response = requests.get(download_url, headers=HEADERS, stream=True)                            pdf_response.raise_for_status() # 检查下载请求是否成功                            # 以二进制写入模式打开文件,并将下载内容分块写入                            with open(full_local_path, 'wb') as f:                                for chunk in pdf_response.iter_content(chunk_size=8192):                                    f.write(chunk)                            print(f"    成功下载 '{local_filename}'")                            found_pdfs_count += 1                        except requests.exceptions.RequestException as e:                            print(f"    下载 '{download_url}' 失败: {e}")                        except IOError as e:                            print(f"    保存文件 '{full_local_path}' 失败: {e}")                        print('---') # 分隔不同PDF的处理信息                if found_pdfs_count == 0:                    print(f"  在班级 '{klas}', 科目 '{vak}' 中未找到PDF文件。")            except requests.exceptions.RequestException as e:                print(f"  处理班级 '{klas}', 科目 '{vak}' 时请求失败:{e}")    print("所有PDF文件下载尝试完成。")if __name__ == "__main__":    download_pdfs_from_website()

8. 注意事项与优化

文件名合法性: link_tag.text获取的文本可能包含操作系统不允许作为文件名的特殊字符(如/, , :, *, ?, “, , |等)。在实际应用中,建议对filename_base进行额外的清理或“slugify”处理,例如使用正则表达式移除或替换非法字符,确保生成的文件名在所有操作系统上都是有效的。

import redef sanitize_filename(filename):    # 移除或替换非法字符    filename = re.sub(r'[/:*?"|]', '_', filename)    # 移除文件名末尾的点,防止Windows系统问题    filename = filename.rstrip('.')    return filename# 在代码中使用:# local_filename = sanitize_filename(filename_base) + '.pdf'

URL编码 虽然本例中的link.text直接用于本地文件名,但如果URL本身包含特殊字符(如空格、非ASCII字符),requests库通常会正确处理其编码。对于URL路径中的反斜杠,我们已经通过replace(”, ‘/’)进行了标准化。

错误处理: 代码中包含了try-except块来捕获requests.exceptions.RequestException(网络错误、HTTP状态码非2xx)和IOError(文件保存错误),这使得脚本更加健壮。

User-Agent: 模拟浏览器User-Agent是良好的实践,可以避免某些网站的访问限制。

速率限制与反爬: 对于频繁或大规模的抓取任务,应考虑增加请求之间的延迟(time.sleep()),以避免给服务器造成过大负担或触发网站的反爬机制。

stream=True与iter_content: 在下载大文件时,requests.get(…, stream=True)结合response.iter_content()可以避免将整个文件一次性加载到内存中,从而节省内存资源。

9. 总结

通过本教程,你已经学会了如何使用Python requests和BeautifulSoup库,实现从动态加载内容的网站上抓取PDF文件,并根据HTML链接的文本内容自定义保存文件名。这个方法不仅提升了下载文件的可读性,也展示了Python在自动化网页数据处理方面的强大能力。掌握这些技术,可以帮助你高效地管理和组织从网络获取的信息。

以上就是Python与BeautifulSoup:从网站下载PDF并自定义文件名的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1598653.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月23日 13:07:01
下一篇 2025年12月23日 13:07:12

相关推荐

  • JavaScript中获取通过类名选择的DOM元素ID:属性而非方法

    本教程详细介绍了如何在javascript中获取通过getelementsbyclassname()方法选择的dom元素的id。核心在于理解element.id是一个属性而非方法,它能直接访问任何dom元素的唯一标识符。文章将通过代码示例,展示如何遍历元素集合并正确获取每个元素的id,并强调了相关的…

    2025年12月23日
    000
  • 高级CSS选择器:在受限条件下精准定位元素

    本文深入探讨了在严格限制CSS选择器使用(如禁用`:nth-*`、`+`、`~`和属性选择器)的情况下,如何利用高级组合选择器,特别是`:has()`和`:not()`,来精确选择特定HTML元素。通过一个具体的案例,文章详细解析了如何基于元素的结构关系而非其在同级中的位置或特定属性,构建一个单一且…

    2025年12月23日
    000
  • 在Angular响应式表单中使用FormArray高效管理动态数据

    本教程详细探讨了在Angular应用中,如何利用响应式表单(Reactive Forms)及其核心组件`FormArray`来解决动态表单数据的存储与使用问题。针对模板驱动表单在处理复杂、动态输入场景下的局限性,文章将指导读者构建一个灵活的表单结构,确保每个动态生成的表单项数据都能被独立、有序地收集…

    2025年12月23日
    000
  • 解决无障碍性错误:重复标签与aria-label的优先级

    在Web开发中,为表单元素提供无障碍标签是至关重要的。当一个输入框同时拥有“元素和`aria-label`属性,且两者文本内容相同时,无障碍性检测工具常会报告“重复标签”错误。这是因为根据W3C的无障碍名称计算规范,`aria-label`属性会优先于关联的“元素,导致“被忽略。本文将深入探讨…

    2025年12月23日
    000
  • 优化jQuery表格行淡入淡出动画:实现稳定流畅的过渡效果

    本教程旨在解决jquery中表格行连续淡入淡出动画导致的不稳定视觉问题。通过引入适当的延迟机制或利用动画回调,确保淡出动画在淡入动画开始前完成,从而消除布局跳动,实现平滑、专业的表格内容切换效果。 理解表格行动画的不稳定性 在网页开发中,使用jQuery进行元素的淡入(fadeIn())和淡出(fa…

    2025年12月23日
    000
  • CSS技巧:实现多行文本截断而不显示省略号

    本文详细介绍了一种css方法,用于实现多行文本的截断,但与常见的`webkit-line-clamp`不同,该方法不会在截断处显示省略号。通过精确计算并设置容器高度,使其恰好容纳指定行数的文本,再结合`overflow: hidden`,开发者可以实现简洁无痕的文本截断效果,适用于需要干净视觉呈现的…

    2025年12月23日
    000
  • HTML/CSS浮动信息框:实现列表项旁侧重叠显示与滚动跟随

    本教程探讨如何在html/css中实现一个浮动信息框,使其在列表项旁边显示并覆盖相邻内容。我们将分析使用`position: absolute`和`relative`的常见方法,并重点讨论在列表滚动时,如何使信息框保持与对应列表项垂直对齐的复杂性,指出纯css在此场景下的局限性及javascript…

    2025年12月23日
    000
  • 提升Web字体加载性能:preconnect与Google Fonts的实践

    `preconnect`指令是优化web字体加载的关键技术,它通过预先建立与字体服务器的连接,显著减少了关键资源的获取时间。对于google fonts,`preconnect`到`fonts.googleapis.com`和`fonts.gstatic.com`能有效缓解文本闪烁(fout)或不可…

    2025年12月23日
    000
  • Django模板中正确渲染动态下拉菜单内容的指南

    本教程旨在解决django模板中动态下拉菜单内容显示异常的问题。核心在于确保所有“元素必须正确嵌套在“标签内部。文章将通过对比错误与正确的代码示例,详细阐述如何在django模板中从数据库获取数据并正确渲染为功能完善的html下拉菜单,避免常见的布局错误,并提供最佳实践建议。…

    2025年12月23日
    000
  • CSS多行文本截断:无省略号的实现方法

    本文将详细介绍如何在%ignore_a_1%中实现多行文本截断,同时避免显示传统的省略号。通过精确计算文本行高并设置固定容器高度,结合`overflow: hidden`属性,开发者可以实现对溢出文本的干净截断,适用于需要保持页面布局整洁的场景,尤其是在需要避免默认省略号行为时。 在网页设计中,处理…

    2025年12月23日
    000
  • HTML表单输入值在JavaScript中进行数值加法运算的教程

    本文旨在解决javascript中处理html表单输入值时常见的数值加法问题。当尝试将文本输入框的值进行相加时,常因未正确进行类型转换而导致字符串拼接。教程将详细解释为何发生此问题,并提供使用`parsefloat()`函数对输入元素的`value`属性进行转换的正确方法,确保实现准确的数值计算。 …

    2025年12月23日
    000
  • 如何使用CSS实现元素平滑淡入淡出效果

    针对CSS中`display: none`无法平滑过渡的问题,本教程将详细讲解如何利用`opacity`和`pointer-events`属性实现元素的淡入淡出效果。通过设置初始透明度为0并禁用鼠标事件,然后在交互时恢复透明度并启用事件,结合`transition`属性,可以创建出专业且用户友好的视…

    2025年12月23日
    000
  • Angular中高效处理动态表单数据:使用FormArray存储用户答案

    本文旨在解决Angular模板驱动表单在处理动态、多项数据(如测验答案)时,数据存储结构不符合预期的问题。我们将深入探讨`NgForm`的局限性,并详细介绍如何通过响应式表单中的`FormArray`来优雅地构建、管理和存储动态表单数据,最终实现将每个问题的答案独立存储在数组中,便于后续处理和评分。…

    2025年12月23日
    000
  • CSS中父元素透明度不影响子元素的实现技巧

    在css中,父元素的透明度(`opacity`)会继承并影响其所有子元素,导致子元素无法独立保持完全不透明。为了解决这一问题,一种有效的策略是将原本的子元素转换为父元素的兄弟元素,并通过绝对定位将其覆盖在父元素之上,从而使两者能够独立设置各自的透明度。 理解CSS透明度继承机制 CSS的opacit…

    2025年12月23日
    000
  • JavaScript表单验证与数学函数:库存管理中的常见陷阱与优化实践

    本文深入探讨了在javascript中实现简单库存管理网页时,如何解决表单验证和数学计算中的常见问题。重点分析了dom元素获取、javascript函数执行流以及类型转换的易错点,并提供了优化的解决方案,确保库存总数和余额计算准确无误,同时满足特定倍数验证要求。 在Web开发中,客户端表单验证是提升…

    2025年12月23日
    000
  • 利用JavaScript动态转换HTML中相对日期显示为绝对时间戳

    本教程旨在指导如何使用javascript将网页中以“x月y天前”等相对格式显示的日期转换为html `data`属性中存储的精确iso时间戳。文章将通过dom操作,详细讲解如何定位目标元素、提取数据属性值,并更新其文本内容,提供示例代码和注意事项,帮助开发者实现日期显示优化。 在现代网页应用中,为…

    2025年12月23日
    000
  • 深入理解与解决Ionic中:host样式覆盖问题

    本教程深入探讨在ionic framework中使用angular开发时,如何有效覆盖或修改组件的`:host`样式。文章将详细解释css级联、特异性、angular视图封装及shadow dom的工作原理,并提供多种策略,包括利用样式顺序、提高选择器特异性以及在必要时使用`!important`规…

    2025年12月23日
    000
  • CSS实现多行文本截断,且不显示省略号

    本文旨在解决css中多行文本截断时避免显示省略号的问题。通过放弃传统的`-webkit-line-clamp`和`text-overflow: ellipsis`组合,转而利用css变量精确计算容器高度,并结合`overflow: hidden`属性,实现文本在指定行数后被干净利落地截断,不留任何省…

    2025年12月23日
    000
  • Django模板中实现可点击图片链接的最佳实践

    本文旨在指导开发者如何在Django模板中正确地将图片元素转换为可点击的链接,使其能够导航至指定页面。我们将详细分析常见的错误模式,并提供符合HTML语义和前端可访问性标准的解决方案,包括利用Django的`{% url %}`标签以及添加`alt`和`title`属性来优化用户体验和SEO。 在构…

    2025年12月23日 好文分享
    000
  • 使用CSS实现文本即时显示与缓慢消失的悬停效果

    本文详细介绍了如何利用css的`transition`属性和伪类实现文本在鼠标悬停时即时出现,并在鼠标移开时缓慢消失的视觉效果。通过精确控制`transition-duration`在`:hover`和`:not(:hover)`状态下的值,开发者可以轻松创建流畅且具有专业感的交互动画,提升用户体验…

    2025年12月23日
    000

发表回复

登录后才能评论
关注微信