Python中协程如何实现 Python中协程编程教程

Python中实现协程依赖async/await语法和asyncio库,通过事件循环调度,实现单线程内高效并发处理I/O密集型任务。使用async def定义协程函数,await暂停执行并让出控制权,避免阻塞。相比多线程和多进程,协程开销小、调度由程序控制,适合高并发I/O场景,但需避免阻塞调用。常见实践包括使用aiohttp等异步库、asyncio.gather并发执行、asyncio.create_task管理后台任务,并注意异常处理与共享状态同步。底层基于生成器和事件循环机制,通过await/Future实现非阻塞I/O操作。

python中协程如何实现 python中协程编程教程

Python中实现协程,核心在于利用

async/await

语法和

asyncio

库,这提供了一种高效的、单线程的并发编程模型,尤其擅长处理大量I/O密集型任务,避免了传统线程或进程切换的开销。它允许程序在等待某个操作(如网络请求、文件读写)完成时,将CPU时间让给其他任务,从而提高资源利用率和响应速度。

解决方案

在Python中实现协程编程,我们主要依赖于内置的

asyncio

库。这个库是Python标准库中用于编写并发代码的基础,它使用事件循环(event loop)来管理和调度协程。

首先,你需要使用

async def

关键字来定义一个协程函数。这告诉Python,这个函数是一个协程,它可以在执行过程中暂停并恢复。

import asyncioasync def my_first_coroutine():    print("协程开始了...")    # 模拟一个耗时的I/O操作,例如网络请求或数据库查询    # 注意这里使用的是 asyncio.sleep,而不是 time.sleep    # time.sleep 会阻塞整个事件循环,而 asyncio.sleep 会让出控制权    await asyncio.sleep(1) # 暂停1秒,期间事件循环可以运行其他任务    print("协程执行完毕!")async def another_coroutine():    print("这是另一个协程,它在等待时也能运行。")    await asyncio.sleep(0.5)    print("另一个协程也完成了。")async def main():    # 使用 await 关键字来等待一个协程的完成    await my_first_coroutine()    await another_coroutine()    # 如果你想并发运行多个协程,可以使用 asyncio.gather    print("n--- 并发运行多个协程 ---")    await asyncio.gather(        my_first_coroutine(),        another_coroutine()    )    print("所有并发协程都已完成。")if __name__ == "__main__":    # 运行主协程,这会启动事件循环并执行所有排队的协程    asyncio.run(main())

这段代码展示了协程的基本结构。

asyncio.run(main())

会启动一个事件循环,然后执行

main

协程。当

main

协程内部遇到

await

时,它会暂停执行,将控制权交还给事件循环。事件循环会检查是否有其他准备好运行的协程,或者等待中的I/O操作是否已完成。一旦

await

等待的操作完成,事件循环就会恢复之前暂停的协程。

asyncio.gather

是一个非常实用的工具,它允许你同时调度多个协程,并在所有协程都完成后才继续执行。这对于需要并行处理多个独立任务的场景非常有效。

立即学习“Python免费学习笔记(深入)”;

Python协程与多线程、多进程有何不同?

谈到并发,很多人首先想到的是多线程或多进程。但协程提供了一种截然不同的并发模型,理解它们之间的差异对于选择合适的工具至关重要。

对我来说,最大的别在于调度方式和资源开销

多进程(Multiprocessing)

独立性强:每个进程都有自己独立的内存空间,互不干扰,安全性高。真正的并行:在多核CPU上,不同进程可以同时运行,实现真正的并行计算,适合CPU密集型任务。开销大:创建和销毁进程的开销非常大,进程间通信(IPC)也比较复杂。调度:由操作系统内核进行抢占式调度。

多线程(Multithreading)

共享内存:线程在同一个进程内共享内存空间,通信相对容易,但可能导致数据竞争和死锁问题。Python的GIL:在CPython解释器中,全局解释器锁(GIL)的存在意味着在任何给定时刻,只有一个线程能执行Python字节码。这使得Python多线程在CPU密集型任务上无法实现真正的并行,更多是并发(轮流执行)。但对于I/O密集型任务,当一个线程等待I/O时,GIL会被释放,允许其他线程执行。开销适中:创建和销毁线程的开销比进程小,但比协程大。调度:由操作系统内核进行抢占式调度。

协程(Coroutines)

协作式多任务:与线程和进程的抢占式调度不同,协程是协作式调度。一个协程只有在遇到

await

时才会主动让出控制权,这意味着它不会被操作系统强制中断。单线程:协程运行在单个线程内,没有GIL的限制,因此在I/O密集型任务上表现出色。开销极小:协程的上下文切换(即暂停和恢复)仅仅是函数栈的切换,开销远小于线程和进程。适用场景:非常适合高并发的I/O密集型任务,如网络爬虫、Web服务器、数据库连接池等,因为它们大部分时间都在等待外部资源的响应。缺点:如果一个协程中存在长时间运行的CPU密集型操作(即没有

await

的阻塞操作),它会阻塞整个事件循环,导致其他协程无法执行。

简单来说,如果你的任务是计算密集型的,需要充分利用多核CPU,那么多进程是首选。如果你的任务是I/O密集型,并且需要轻量级的并发,那么协程无疑是更优雅、更高效的选择。多线程在Python中介于两者之间,在I/O密集型任务中也有一定作用,但往往伴随着更复杂的同步问题。

编写Python协程时常见的陷阱与最佳实践?

即便协程编程强大而优雅,它也有自己的“脾气”。我在实践中遇到过一些坑,也总结了一些经验,分享给你。

常见陷阱:

阻塞了事件循环:这是最致命的错误。在协程中,你绝对不能使用任何会阻塞当前线程的同步调用,比如

time.sleep()

requests.get()

、或者同步的数据库操作。这些操作会暂停整个事件循环,导致所有其他协程都无法运行,异步的优势荡然无存。

解决方案:始终使用

asyncio

提供的异步版本(如

asyncio.sleep

),或者使用专门为

asyncio

设计的异步库(如

aiohttp

代替

requests

aiosqlite

代替

sqlite3

)。如果必须调用同步代码,考虑使用

run_in_executor

将它放到一个单独的线程或进程池中执行。

忘记

await

:定义了一个

async def

函数,但调用时忘记了

await

。这时,你得到的是一个协程对象(coroutine object),而不是执行结果。这个协程对象如果没有被

await

asyncio.create_task

调度,它永远不会执行。

解决方案:每当调用一个

async def

函数时,几乎总是需要

await

它。例外情况是你明确想创建一个后台任务并稍后管理它(使用

asyncio.create_task

)。

不当的异常处理:在异步任务中,如果一个任务抛出异常但没有被捕获,它可能会默默地导致整个程序崩溃,或者只是让那个任务失败而你却不知道。

解决方案:像同步代码一样,使用

try...except

块来捕获协程中的异常。对于

asyncio.gather

asyncio.create_task

创建的任务,可以设置

return_exceptions=True

来让异常作为结果返回,或者在创建任务后使用

task.add_done_callback

来处理完成后的状态,包括异常。

共享状态的竞态条件:虽然协程是单线程的,但如果你有多个并发运行的协程修改同一个共享变量,仍然可能出现竞态条件。例如,两个协程同时尝试递增一个计数器,由于

await

的存在,它们可能会交错执行,导致最终结果不正确。

解决方案:使用

asyncio.Lock

asyncio.Semaphore

等同步原语来保护共享资源。

最佳实践:

始终使用异步I/O库:这是基石。任何涉及网络、文件、数据库的操作,都应该使用其异步版本。模块化协程:将大的任务分解成小的、职责单一的协程函数,提高代码的可读性和可维护性。利用

asyncio.gather

进行并发:当有多个独立的I/O密集型任务需要同时启动时,

asyncio.gather

是你的好朋友。使用

asyncio.create_task

处理后台任务:如果你需要启动一个协程,但不想立即等待它的结果,或者希望它在后台持续运行,

create_task

是正确的选择。但请记住,要保留对任务对象的引用,否则它可能会被垃圾回收。明确取消策略:异步任务是可以被取消的。在设计协程时,要考虑任务被取消时如何清理资源。可以使用

asyncio.CancelledError

来捕获取消信号。日志记录:在异步代码中,良好的日志记录尤为重要,可以帮助你追踪任务的生命周期和调试问题。

Python异步编程如何处理并发IO操作?

Python异步编程在处理并发I/O操作方面简直是如鱼得水,这正是它的设计初衷和最大优势所在。理解其工作机制,能让你更高效地构建高性能网络应用。

核心思想是非阻塞I/O和事件循环

当一个协程发起一个I/O操作(比如向服务器发送一个HTTP请求)时,它不会傻傻地原地等待响应。相反,它会立即将这个I/O请求提交给操作系统,然后

await

这个操作。这个

await

关键字的魔力在于,它告诉事件循环:“嘿,我现在没什么事可干了,这个I/O操作需要时间,你先去忙别的吧,等这个I/O有结果了再来找我。”

此时,事件循环会接收到控制权,它会检查是否有其他已经准备好运行的协程,或者是否有之前发起的I/O操作已经完成。它会不断地轮询或被操作系统通知(通过像epoll、kqueue这样的机制),哪个I/O操作已经有了结果。

一旦之前那个协程所等待的I/O操作(比如HTTP响应已经回来了)完成,事件循环就会将控制权交还给那个协程,让它从

await

的地方继续执行。

这个过程是如此的轻量和高效,因为它避免了线程或进程切换带来的巨大开销。所有这些“并发”都发生在一个线程内,通过巧妙地调度和切换任务上下文来实现。

举个例子:并发下载网页

假设你需要从多个网站下载内容,传统的同步方式是一个接一个地下载,效率低下。使用异步编程,你可以同时发起所有下载请求,然后等待它们全部完成。

import asyncioimport aiohttp # 这是一个异步HTTP客户端库async def fetch_url(session, url):    print(f"开始下载: {url}")    try:        async with session.get(url) as response:            # await response.text() 也是一个I/O操作,会暂停当前协程            content = await response.text()            print(f"完成下载: {url}, 内容长度: {len(content)} 字符")            return f"URL: {url}, Status: {response.status}, Length: {len(content)}"    except aiohttp.ClientError as e:        print(f"下载失败: {url}, 错误: {e}")        return f"URL: {url}, Error: {e}"async def main_downloader():    urls = [        "http://example.com",        "http://python.org",        "http://www.google.com",        "http://nonexistent-domain-12345.com" # 故意放一个会失败的    ]    async with aiohttp.ClientSession() as session: # 创建一个HTTP会话        # 使用 asyncio.gather 来并发运行所有 fetch_url 协程        # gather 会等待所有协程都完成后才返回        results = await asyncio.gather(*[fetch_url(session, url) for url in urls])    print("n--- 所有下载任务完成 ---")    for result in results:        print(result)if __name__ == "__main__":    asyncio.run(main_downloader())

在这个例子中:

main_downloader

协程创建了一个

aiohttp.ClientSession

。它遍历

urls

列表,为每个URL创建一个

fetch_url

协程对象。

asyncio.gather(*[...])

是关键。它将所有这些

fetch_url

协程“打包”在一起,并启动它们。当任何一个

fetch_url

协程内部遇到

await session.get(url)

await response.text()

时,它会暂停,将控制权交还给事件循环。事件循环会立即检查是否有其他

fetch_url

协程准备好运行(或者之前发起的I/O操作是否有结果),从而实现多个下载任务几乎同时进行。只有当所有

fetch_url

协程都完成后,

asyncio.gather

才会返回,

main_downloader

协程才会继续执行。

这种模式极大地提高了I/O密集型应用的吞吐量和响应速度,因为程序不再需要为每个I/O操作分配一个独立的线程或进程,也避免了因等待I/O而导致的CPU空闲。

协程的底层实现机制是什么?

要深入理解协程,我们得稍微触及一下它的底层机制。这其实并非魔法,而是Python在语言层面和库层面做出的巧妙设计。

早期的Python协程(在

async/await

出现之前)是基于生成器(generators)和

yield from

实现的。一个生成器函数通过

yield

关键字可以暂停执行并返回一个值,然后可以在后续调用

next()

时从暂停的地方继续。

yield from

则允许生成器委托给另一个生成器或可迭代对象,这为构建协程链提供了基础。

asyncio

最初就是利用

yield from

来构建其事件循环和任务调度的。

随着Python 3.5引入

async/await

语法,协程的实现变得更加清晰和直观。尽管语法变了,但其底层原理依然与生成器有千丝万缕的联系。

async def

函数在编译时会被转换成一个特殊的生成器,或者说是一个状态机

具体来说:

async def

函数:当你定义一个

async def

函数时,Python解释器会将其编译成一个可等待对象(awaitable object),而不是一个普通的函数。当你调用这个

async def

函数时,它并不会立即执行,而是返回一个协程对象。这个协程对象本质上是一个封装了函数执行状态的迭代器。

await

关键字:这是协程的核心。当协程遇到

await some_awaitable

时,它会暂停自身的执行,并将控制权交还给调用它的地方(通常是事件循环)。

await

表达式会等待

some_awaitable

对象完成并返回结果。这个

some_awaitable

可以是一个协程对象、一个Future对象,或者其他实现了特定协议的对象。

事件循环(Event Loop)

asyncio

库的核心就是事件循环。它是一个无限循环,负责:

调度协程:当协程通过

await

让出控制权时,事件循环会将这个协程标记为“暂停”,并记录它正在等待什么(例如,一个网络请求的完成)。监控I/O事件:事件循环会使用操作系统提供的I/O多路复用机制(如Linux上的

epoll

macOS上的

kqueue

,Windows上的

IOCP

)来高效地监控大量的I/O操作。它不会阻塞地等待某个I/O完成,而是等待任何一个I/O操作完成的通知。恢复协程:一旦某个I/O操作完成,事件循环就会收到通知。它会找到之前等待这个I/O操作的协程,并将其标记为“可运行”。在下一个循环迭代中,事件循环会恢复这个协程的执行,从它上次

await

的地方继续。

Future对象:在

asyncio

内部,很多异步操作的结果都由

Future

对象表示。一个

Future

对象代表了一个异步操作的最终结果。当一个操作完成时,它的结果会被设置到对应的

Future

上,然后所有

await

这个

Future

的协程都会被唤醒。

所以,从本质上讲,

async/await

提供了一个更高级、更易读的语法糖,让开发者可以像编写同步代码一样编写异步代码,而底层的事件循环则负责高效地调度这些“暂停”和“恢复”的协程,实现非阻塞的并发。它将复杂的I/O多路复用和任务调度细节隐藏起来,让开发者能专注于业务逻辑。

以上就是Python中协程如何实现 Python中协程编程教程的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1368935.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 09:12:42
下一篇 2025年12月14日 09:12:47

相关推荐

  • Python怎样处理日期时间_Python时间操作指南一览

    Python处理日期时间的核心是datetime模块,掌握date、time、datetime、timedelta和tzinfo类是基础。应优先使用感知时间(aware datetime)并借助zoneinfo或pytz处理时区,避免夏令时和时区混淆问题。格式化与解析主要依赖strftime和str…

    2025年12月14日
    000
  • Python中字符串常用方法总结 Python中字符串操作技巧

    掌握Python字符串方法可提升数据处理效率。1. 常用方法包括len、lower、upper、strip、replace、split、startswith、endswith、find、count、join、format及f-strings,用于长度获取、大小写转换、空白去除、替换、分割、匹配判断、…

    2025年12月14日
    000
  • 使用 Numba 加速 Python 嵌套循环计算

    本文将介绍如何使用 Numba 库中的 Just-In-Time (JIT) 编译技术,显著提升 Python 中嵌套循环计算的执行速度。通过简单地添加装饰器,可以将耗时的循环代码转换为高效的机器码,从而大幅缩短计算时间。此外,本文还探讨了如何利用 Numba 的并行计算能力,进一步加速计算过程,充…

    2025年12月14日
    000
  • Python如何操作文件路径_Python路径处理指南汇总

    Python处理文件路径推荐使用pathlib,因其面向对象、跨平台且可读性强;os.path虽稳定但为函数式操作,适合旧项目;避免字符串拼接以防兼容性问题。 Python处理文件路径的核心在于两个强大且灵活的模块: os.path 和 pathlib 。它们提供了一套跨平台、安全且高效的方法,帮助…

    2025年12月14日
    000
  • Python怎么解析JSON数据_PythonJSON处理技巧总结

    Python解析JSON核心是使用json模块的loads、load、dumps和dump函数,实现字符串与文件的相互转换。1. json.loads()将JSON字符串转为Python对象,适用于API响应等字符串数据;2. json.load()直接从文件读取并解析JSON;3. json.du…

    2025年12月14日
    000
  • Python如何实现多线程_Python多线程编程指南分享

    Python多线程依赖threading模块,适用于I/O密集型任务,但受GIL限制无法在CPU密集型任务中实现真正并行;通过Lock、Queue等机制可解决共享数据的竞态条件;对于并行计算需求,应选用multiprocessing或多线程结合异步IO的混合模型。 Python实现多线程主要依赖于内…

    2025年12月14日
    000
  • Python如何生成随机数_Python随机数生成方法详解

    Python生成随机数主要依赖random模块,该模块提供生成伪随机数的多种方法,包括random()、uniform()、randint()等函数用于生成浮点数和整数,choice()、sample()、shuffle()用于序列操作,并可通过seed()设置种子实现可重现性;需注意其生成的是伪随…

    2025年12月14日
    000
  • python怎么爬取网页数据_python爬虫入门实战步骤

    答案是明确目标与初步侦察,使用requests库发送请求获取网页HTML,再用BeautifulSoup解析并提取所需数据,实战中需先通过浏览器开发者工具分析目标结构,判断数据是否动态加载,再制定爬取策略。 要说Python怎么爬取网页数据,其实核心就那么几步:发出请求、解析内容、提取数据。简单点讲…

    2025年12月14日
    000
  • 优化Pandas数据处理:告别慢速循环,拥抱高效Merge

    本教程探讨了Pandas中常见的性能瓶颈:使用itertuples()和apply(axis=1)进行行级数据处理和数据查找。通过一个实际案例,我们将展示如何利用Pandas的向量化操作和merge()函数,将慢速的循环查找和数据整合过程,转换为高效、简洁且可扩展的数据处理方案,显著提升代码性能和可…

    2025年12月14日
    000
  • Python如何爬取网页数据_Python网络爬虫步骤详解

    答案:Python爬取网页数据需经历发送请求、解析内容和存储数据三步。首先用requests库获取网页HTML,结合headers和timeout参数模拟浏览器行为;接着使用BeautifulSoup或lxml解析HTML,通过标签、CSS选择器或XPath提取目标信息;若内容由JavaScript…

    2025年12月14日
    000
  • PyQt5 QHeaderView 子类化:实现自定义列宽限制与可见性问题解决

    本文深入探讨PyQt5中QHeaderView的子类化技巧,重点解决自定义表头在QTableWidget中不可见的问题,并通过重写鼠标事件实现列宽的最小限制。教程将提供完整的代码示例,指导开发者如何创建功能强大的交互式表格,确保用户体验和数据展示的准确性。 在pyqt5应用开发中,qtablewid…

    2025年12月14日
    000
  • Python中函数如何定义 Python中函数定义详解

    Python函数通过def定义,支持多种参数类型和return语句返回结果,合理使用可提升代码复用性与可维护性。 在Python中定义函数,核心就是使用 def 关键字,后面跟着你给函数起的名字,然后是一对括号,里面可以放参数(也可以不放),最后以冒号结尾。函数体的内容需要缩进,这是Python的规…

    2025年12月14日
    000
  • Python中异常怎么处理 Python中异常处理详解

    Python中处理异常的核心是try-except-else-finally结构,用于捕获和处理运行时错误,提升程序健壮性。try块包含可能出错的代码,except捕获特定异常,else在无异常时执行,finally无论是否发生异常都会执行,常用于资源清理。常见误区包括:过度捕获Exception导…

    2025年12月14日
    000
  • 交替选择排序:优化实现与常见陷阱解析

    本教程详细探讨了一种特殊形式的选择排序算法,即“交替选择排序”。该算法在奇数迭代中寻找最小值并将其放置在当前未排序区间的左端,而在偶数迭代中寻找最大值并放置在右端。文章深入分析了实现过程中常见的错误,特别是关于交换位置和搜索范围的误用,并提供了一个基于动态左右指针的优化解决方案,旨在帮助读者准确理解…

    2025年12月14日
    000
  • Python中集合怎么使用 Python中集合使用教程

    集合是Python中用于存储唯一元素且无序的数据结构,支持高效去重和成员检测。它可通过花括号或set()函数创建,能执行交集、并集、差集等数学运算。集合元素必须为不可变类型(如数字、字符串、元组),不可变集合frozenset可作为字典键或嵌套在其他集合中。使用时需注意:{}创建的是字典而非集合,空…

    2025年12月14日
    000
  • 双向交替选择排序:一种改进的选择排序算法实现

    本文详细介绍了如何实现一种改进的选择排序算法,该算法在奇数迭代中将最大元素放置到未排序区间的右端,在偶数迭代中将最小元素放置到未排序区间的左端。通过引入左右指针动态管理排序区间,并修正了常见的索引和范围错误,确保了排序的正确性与效率。 1. 算法背景与挑战 选择排序(selection sort)是…

    2025年12月14日
    000
  • Python中if语句如何正确使用 Python中if语句使用指南

    Python中if语句通过if、elif、else实现条件分支,依赖缩进和冒号定义代码块,支持比较、逻辑、成员运算符及真值性判断,可结合all()、any()、条件表达式和字典映射提升简洁性与可读性。 Python中的 if 语句是构建条件逻辑的基石,它让程序能够根据特定条件的真假,灵活地选择执行不…

    2025年12月14日 好文分享
    000
  • Python中类和对象入门教程 Python中类和对象基本用法

    Python中的类和对象通过类定义对象模板,对象是类的实例,实现数据与行为的封装,支持继承、组合与特殊方法,提升代码复用性、可维护性与现实建模能力。 Python中的类和对象,其实就是我们构建复杂程序时,手里最趁手的两把“锤子”和“凿子”。它们让我们能把那些抽象的、现实世界中的概念,比如“一辆车”、…

    2025年12月14日
    000
  • Python中元组如何操作 Python中元组操作方法

    元组是Python中不可变的序列类型,创建后无法修改元素,但支持访问、切片、连接、重复、成员检测和迭代等操作。其不可变性使其可作为字典键、在多线程中安全使用,并具备较好的性能和内存效率。与列表相比,元组适用于固定数据集合,如坐标、函数多返回值;与字符串相比,元组可存储任意类型元素。处理嵌套或大型元组…

    2025年12月14日
    000
  • Python怎样操作数据库_Python数据库CRUD步骤解析

    Python操作数据库需通过驱动建立连接并执行SQL,遵循连接、创建游标、执行SQL、提交事务、关闭连接的流程,使用参数化查询防SQL注入,结合try-except-finally管理事务确保数据一致性。 Python操作数据库的核心在于通过特定的数据库驱动(如 sqlite3 、 psycopg2…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信