Python中如何使用多进程?multiprocessing模块详解

python中绕过gil实现真正并行计算的最直接方式是使用multiprocessing模块;2. 该模块通过创建独立进程,每个进程拥有自己的解释器和内存空间,从而实现多核cpu并行计算;3. multiprocessing提供了process类创建和管理进程、queue/pipe实现进程间通信、以及pool用于高效管理大量任务;4. 多进程适用于cpu密集型任务,而多线程受限于gil更适合i/o密集型任务;5. 进程间通信可通过队列(queue)、管道(pipe)和共享内存(shared memory)实现,各自适用于不同场景;6. 使用pool能有效管理大量并发任务,简化资源调度与结果收集,提升代码可维护性和执行效率。

Python中如何使用多进程?multiprocessing模块详解

Python中要实现真正的并行计算,绕过全局解释器锁(GIL)的限制,最直接有效的方式就是使用multiprocessing模块。它允许我们创建独立的进程,每个进程都有自己的Python解释器和内存空间,从而能够充分利用多核CPU的计算能力。

Python中如何使用多进程?multiprocessing模块详解

解决方案

使用multiprocessing模块的核心是Process类。你可以创建一个Process对象,指定它要执行的目标函数,然后启动它。

import multiprocessingimport osimport timedef worker_function(name, delay):    """一个简单的模拟工作函数"""    pid = os.getpid()    print(f"进程 {pid} ({name}) 开始工作...")    time.sleep(delay) # 模拟耗时操作    print(f"进程 {pid} ({name}) 完成工作。")if __name__ == '__main__':    print("主进程开始。")    # 创建两个进程    process1 = multiprocessing.Process(target=worker_function, args=("任务A", 2))    process2 = multiprocessing.Process(target=worker_function, args=("任务B", 1))    # 启动进程    process1.start()    process2.start()    # 等待所有子进程完成    # join() 方法会阻塞主进程,直到对应的子进程执行完毕    process1.join()    process2.join()    print("所有子进程已完成,主进程结束。")

在这个例子里,worker_function会在独立的进程中运行。process1.start()process2.start()会立即返回,而不会等待函数执行完毕,这就是并行执行的体现。join()方法则确保主进程在所有子进程结束之前不会退出。值得注意的是,if __name__ == '__main__':这行代码是必须的,尤其是在Windows系统上,它能确保子进程在启动时不会重复导入模块,避免无限循环创建进程的问题。

立即学习“Python免费学习笔记(深入)”;

Python中如何使用多进程?multiprocessing模块详解

为什么需要多进程,它和多线程有什么区别

这个问题,我个人觉得,是理解Python并发编程的关键。很多人刚开始接触时会混淆多线程和多进程,甚至觉得多线程就足够了。但实际上,对于CPU密集型任务,Python的多线程因为全局解释器锁(GIL)的存在,并不能实现真正的并行计算。GIL一次只允许一个线程执行Python字节码,这意味着即便你有多个线程,它们也只能轮流执行,无法同时利用多核CPU。

而多进程则完全不同。每个进程都有自己独立的内存空间和Python解释器实例,它们之间是相互隔离的。这意味着,一个进程的执行不会受到另一个进程中GIL的限制。所以,当你的任务是计算密集型(比如大量数学运算、数据处理等),需要榨干CPU的性能时,多进程就是你的不二之选。

Python中如何使用多进程?multiprocessing模块详解

简单来说:

多线程: 线程共享同一进程的内存空间。适用于I/O密集型任务(如网络请求、文件读写),因为在等待I/O时,GIL会被释放,其他线程可以继续执行。但对于CPU密集型任务,受限于GIL,无法真正并行。多进程: 进程拥有独立的内存空间。适用于CPU密集型任务,可以充分利用多核CPU实现真正的并行计算。进程间通信相对复杂一些,因为它们不共享内存。

所以,选择多进程还是多线程,很大程度上取决于你的任务类型。

如何在多进程间共享数据和通信?

一开始接触多进程,最头疼的就是数据共享。你不能像多线程那样直接改个全局变量就完事儿,那样会出大问题。因为每个进程都有自己的内存副本,直接修改是无效的。得换个思路,比如把数据“扔”进队列里,让另一个进程去“捞”出来,这才是正道。multiprocessing模块提供了几种机制来处理进程间通信(IPC):

队列(Queue): 这是最常用、最灵活的方式,适用于任何类型的数据。Queue是进程安全的,可以用来在生产者-消费者模式中传递消息。

import multiprocessingimport timedef producer(queue):    for i in range(5):        msg = f"消息 {i}"        queue.put(msg)        print(f"生产者发送: {msg}")        time.sleep(0.5)    queue.put(None) # 发送结束信号def consumer(queue):    while True:        msg = queue.get()        if msg is None: # 收到结束信号            break        print(f"消费者接收: {msg}")        time.sleep(0.8)if __name__ == '__main__':    q = multiprocessing.Queue()    p1 = multiprocessing.Process(target=producer, args=(q,))    p2 = multiprocessing.Process(target=consumer, args=(q,))    p1.start()    p2.start()    p1.join()    p2.join()    print("队列通信示例结束。")

管道(Pipe): Pipe用于两个进程之间的双向或单向通信。它比Queue更轻量级,但只能用于两个进程。

import multiprocessingdef sender(conn):    conn.send("你好,我是发送方!")    conn.close()def receiver(conn):    msg = conn.recv()    print(f"接收方收到: {msg}")    conn.close()if __name__ == '__main__':    parent_conn, child_conn = multiprocessing.Pipe() # 创建管道    p1 = multiprocessing.Process(target=sender, args=(child_conn,))    p2 = multiprocessing.Process(target=receiver, args=(parent_conn,))    p1.start()    p2.start()    p1.join()    p2.join()    print("管道通信示例结束。")

共享内存(Shared Memory): 对于简单的数值类型或数组,可以使用ValueArray来在进程间共享。但需要注意的是,它们本身不提供同步机制,你可能还需要Lock来避免竞态条件。

import multiprocessingdef increment(num, arr, lock):    lock.acquire() # 获取锁    try:        num.value += 1        for i in range(len(arr)):            arr[i] += 1        print(f"进程 {multiprocessing.current_process().name} 修改后: num={num.value}, arr={list(arr)}")    finally:        lock.release() # 释放锁if __name__ == '__main__':    num = multiprocessing.Value('i', 0) # 共享整数    arr = multiprocessing.Array('i', [0, 0, 0]) # 共享整数数组    lock = multiprocessing.Lock() # 共享锁    processes = []    for i in range(3):        p = multiprocessing.Process(target=increment, args=(num, arr, lock), name=f"Worker-{i}")        processes.append(p)        p.start()    for p in processes:        p.join()    print(f"最终结果: num={num.value}, arr={list(arr)}")

选择哪种方式取决于你的具体需求:Queue是最通用的,Pipe适用于点对点通信,而共享内存则适用于需要直接访问共享数据且对性能有较高要求的场景,但需要手动处理同步。

使用进程池(Pool)管理大量任务的优势是什么?

说实话,一开始我总想着自己手动Process().start()join(),但任务一多起来,比如要处理成百上千个文件,或者对大量数据进行并行计算,那代码就没法看了,而且手动管理进程的生命周期、资源限制也变得非常麻烦。Pool这东西,简直是“解放双手”的神器,它把那些烦人的进程生命周期管理、任务调度都给封装好了,我们只需要关注任务本身就行。

Pool类提供了一种更高级的方式来管理一组工作进程,它可以自动分配任务给这些进程,并在任务完成后回收资源。

主要优势:

资源管理: 可以限制同时运行的进程数量,避免创建过多进程耗尽系统资源。任务分发: 提供了方便的方法(如mapapply)将任务分发给进程池中的工作进程。结果收集: 能够方便地收集各个任务的执行结果。

最常用的方法是map()apply_async()

pool.map(func, iterable) 类似于内置的map()函数,它将iterable中的每个元素作为参数传递给func,并并行执行。它会阻塞直到所有结果都返回。

import multiprocessingimport timedef square(x):    time.sleep(0.1) # 模拟计算    return x * xif __name__ == '__main__':    with multiprocessing.Pool(processes=4) as pool: # 创建一个包含4个工作进程的进程池        # 使用map并行计算列表元素的平方        results = pool.map(square, range(10))        print(f"使用map计算结果: {results}")

pool.apply_async(func, args=(), kwds={}) 提交一个任务到进程池,并立即返回一个AsyncResult对象。你可以通过AsyncResult.get()方法获取结果(会阻塞直到结果可用),或者通过AsyncResult.ready()AsyncResult.successful()检查任务状态。这适用于需要异步处理结果,或者任务参数不适合map的情况。

import multiprocessingimport timedef complex_task(a, b):    time.sleep(0.5)    return f"计算 {a} + {b} = {a + b}"if __name__ == '__main__':    with multiprocessing.Pool(processes=3) as pool:        # 提交异步任务        async_result1 = pool.apply_async(complex_task, args=(1, 2))        async_result2 = pool.apply_async(complex_task, args=(3, 4))        async_result3 = pool.apply_async(complex_task, args=(5, 6))        # 可以做其他事情,然后获取结果        print("主进程在等待结果...")        result1 = async_result1.get()        result2 = async_result2.get()        result3 = async_result3.get()        print(f"结果1: {result1}")        print(f"结果2: {result2}")        print(f"结果3: {result3}")

使用with语句管理Pool是非常推荐的,它能确保进程池在代码块执行完毕后被正确关闭,释放所有资源。Pool是处理大量独立任务的理想选择,它极大地简化了并行编程的复杂性。

以上就是Python中如何使用多进程?multiprocessing模块详解的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1363728.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 03:34:58
下一篇 2025年12月14日 03:35:11

相关推荐

  • 如何用Python爬取网页数据?requests+BeautifulSoup方案

    使用 python 抓取网页数据时,requests 和 beautifulsoup 是最常用的组合。requests 用于发送 http 请求并获取网页内容,而 beautifulsoup 则用于解析 html 并提取所需数据。1. 安装依赖库:使用 pip install requests be…

    2025年12月14日 好文分享
    000
  • 如何使用Python连接Hadoop?PyHDFS配置方法

    python连接hadoop可通过pyhdfs库实现,适用于数据分析、etl流程等场景。1. 安装pyhdfs使用pip install pyhdfs;2. 配置连接参数,指定namenode地址和用户名;3. 使用hdfsclient建立连接;4. 执行常见操作如列出目录、创建目录、上传下载文件;…

    2025年12月14日 好文分享
    000
  • 如何用Python实现数据挖掘?sklearn入门实例

    用 python 做数据挖掘入门并不难,掌握基础工具和流程即可上手。1. 准备环境与数据:安装 python 及 numpy、pandas、scikit-learn 等库,使用自带的鸢尾花数据集;2. 数据预处理:包括标准化、缺失值处理、类别编码,并拆分训练集和测试集;3. 选择模型并训练:如 kn…

    2025年12月14日 好文分享
    000
  • Python如何分析数据相关性—热力图与相关系数矩阵

    要分析数据相关性,最常用且直观的方式是使用 pandas 计算相关系数矩阵并用 seaborn 绘制热力图。1. 首先加载结构化数据并调用 df.corr() 得到皮尔逊相关系数矩阵,其值范围为 -1 到 1,分别表示负相关、无相关和正相关;2. 然后使用 seaborn.heatmap() 将矩阵…

    2025年12月14日
    000
  • 如何用Python处理时间序列数据?resample重采样

    使用pandas的resample方法进行时间序列数据处理及聚合的核心步骤如下:1. 确保dataframe或series具有datetimeindex,这是resample操作的前提;2. 使用resample(‘freq’)指定目标频率,如’d’(…

    2025年12月14日 好文分享
    000
  • Python怎样处理文本数据?字符串操作完整指南

    python处理文本数据的核心在于字符串操作与编码解码。1. 字符串可通过单引号、双引号或三引号定义,三引号适用于多行文本;2. 支持索引与切片操作,便于访问和反转字符序列;3. 提供拼接(+)、重复(*)及高效拼接的join()方法;4. 内置丰富字符串方法,如split()分割、replace(…

    2025年12月14日 好文分享
    000
  • 在Django模板中安全地将后端变量传递给外部JavaScript

    本文旨在提供两种在Django模板中将后端Python变量安全、高效地传递给外部JavaScript文件的方法:通过内联脚本声明变量和利用HTML数据属性。文章将详细阐述这两种方法的实现原理、具体代码示例,并探讨各自的适用场景、潜在问题及重要注意事项,包括数据类型处理、安全性(XSS防护)和脚本加载…

    2025年12月14日
    000
  • SQLite中实现多列组合唯一性查询与数据聚合

    本文旨在指导用户如何在SQLite数据库中,针对特定列的组合实现唯一性查询,并同时检索与这些唯一组合相关联的其他列数据,且每组只返回一次。通过深入解析GROUP BY子句及其与聚合函数的结合使用,我们将演示如何高效地解决在SQL中获取特定列组合的唯一记录,并避免直接使用DISTINCT在多个非聚合列…

    2025年12月14日
    000
  • Python中如何使用迭代器?生成器应用解析

    迭代器是实现__iter__()和__next__()方法的对象,用于按需遍历数据;生成器是使用yield的特殊迭代器,能延迟计算节省内存。1.迭代器通过next()逐个获取元素,如列表需用iter()转换;2.自定义迭代器需定义类并实现两个方法,如mycounter控制遍历状态;3.生成器用yie…

    2025年12月14日 好文分享
    000
  • Python print() 函数的底层机制与硬件交互解析

    Python的print()函数并非直接与硬件交互,而是通过多层抽象实现文本输出。它首先将数据传递给由C语言实现的Python解释器,解释器进而利用操作系统的标准输出流(stdout)。操作系统负责管理这些流,并通过设备驱动程序将数据发送至显示硬件,最终呈现在屏幕上。这一过程体现了从高级语言到操作系…

    2025年12月14日
    000
  • 深入理解 Python print() 函数:从代码到屏幕的硬件交互之旅

    Python中的print()函数并非直接与硬件交互。其输出过程涉及多层抽象:Python解释器将数据传递给操作系统,操作系统通过标准输出流和设备驱动程序最终将文本渲染到屏幕上。理解这一过程需要深入探究解释器、操作系统和底层C语言I/O机制的协同工作。 当我们执行一行简单的Python代码,例如 p…

    2025年12月14日
    000
  • SQLite:使用 GROUP BY 检索多列的唯一组合及关联数据

    本文探讨了在 SQLite 中如何高效地查询多列的唯一组合,并为每个组合检索关联数据。针对用户尝试使用 DISTINCT 关键字但遇到错误的情况,教程详细阐述了 GROUP BY 子句的正确用法,并结合聚合函数如 MIN(),演示了如何从每个唯一组合中选择特定的行数据,从而避免重复,实现类似 Pyt…

    2025年12月14日
    000
  • 深入解析Python print() 函数:从高级抽象到硬件交互的旅程

    本文深入探讨Python print() 函数在硬件层面的运作机制。它揭示了print()如何通过Python解释器将文本数据传递给操作系统管理的标准输出流(stdout),进而依赖底层C语言实现与操作系统内核及设备驱动程序交互,最终将字符呈现在屏幕上,而非直接与硬件通信。 Python的print…

    2025年12月14日
    000
  • Python怎样实现网页截图?selenium无头模式

    python结合selenium无头模式实现网页截图的核心步骤是:1. 安装selenium库并下载对应浏览器的webdriver;2. 导入webdriver和options模块;3. 创建chromeoptions对象并添加–headless、–disable-gpu、&…

    2025年12月14日 好文分享
    000
  • 怎样用Python实现数据标准化?sklearn预处理指南

    数据标准化是机器学习中不可或缺的一步,因为它能消除不同特征之间的量纲影响,加速模型收敛,并提升依赖距离计算算法的性能。1. 标准化可防止数值范围大的特征(如收入)在模型训练中占据主导地位,使模型更公平地对待所有特征;2. 对基于梯度下降的模型(如线性回归、神经网络),标准化使损失函数等高线更圆润,加…

    2025年12月14日 好文分享
    000
  • 如何用Python进行数据预测—ARIMA时间序列建模

    arima模型适用于时间序列预测,需遵循平稳性检验、参数选择、建模与预测、评估优化四个步骤。1. 数据需平稳,可通过差分和adf检验处理;2. 通过acf/pacf图或网格搜索确定p,d,q参数;3. 使用statsmodels库训练模型并预测未来值;4. 用mae、rmse等指标评估,优化参数或引…

    2025年12月14日 好文分享
    000
  • 如何用Python处理JSON嵌套结构—json_normalize平铺技巧

    json_normalize 是 pandas 用于处理嵌套 json 数据的工具。1. 理解嵌套 json 结构,如包含字典和列表的多层结构;2. 使用 json_normalize 可将嵌套数据拍平成表格形式,地址字段通过点号路径展开;3. 利用 explode 展开列表字段,每个元素单独一行,…

    2025年12月14日 好文分享
    000
  • Python中如何使用多进程?multiprocessing优化技巧

    在python中处理计算密集型任务时,多进程优于多线程。1. 使用process或pool创建进程,前者适合少量独立进程,后者适合批量任务;2. 多进程默认不共享内存,可用queue、pipe或共享变量通信;3. 控制并发数量以优化性能,建议设为cpu核心数,i/o任务可适当增加;4. 子进程应处理…

    2025年12月14日 好文分享
    000
  • 怎样用Python开发Web应用?Django快速入门指南

    django适合python web开发因为它功能强大且结构清晰,安装使用虚拟环境并执行pip install django,创建项目用django-admin startproject,运行服务器用python manage.py runserver,创建应用用python manage.py s…

    2025年12月14日 好文分享
    000
  • Python中如何分析文本情绪—NLP情感分析实战

    1.情感分析可用库:textblob适合英文简单分析;vader针对社交媒体;transformers精度高;snownlp支持中文。2.用textblob时通过polarity判断情绪。3.中文可用snownlp、分词加词典或huggingface模型。4.注意上下文、反语识别、多语言混杂及数据质…

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信