python如何计算程序的运行时间_python计算代码执行时间的方法

使用time.time()、time.perf_counter()、time.process_time()和timeit模块可测量Python代码执行时间;其中time.time()简单但精度低,受系统时钟影响;perf_counter()提供高精度单调计时,适合短时间测量;process_time()仅统计CPU时间,排除I/O等待;timeit模块通过多次重复运行代码并取最优值,适用于微基准测试,能更准确评估小段代码性能。在性能优化中,除时间测量外,还需考虑内存使用、CPU剖析、I/O延迟、算法复杂度、GIL限制及代码可读性等因素,综合运用工具如cProfile、memory_profiler和多进程等策略,才能有效识别瓶颈并提升整体性能。

python如何计算程序的运行时间_python计算代码执行时间的方法

想知道Python代码到底跑了多久?这在日常开发和性能优化中是个再常见不过的需求了。简单来说,Python提供了几个核心工具来帮你搞定这事儿,最常用的是

time

模块,它能满足大部分日常计时需求;而如果追求极致的精确度,比如要比较不同算法的细微性能差异,

timeit

模块则是你的不二之选。

解决方案

在Python中测量代码执行时间,我们通常会用到

time

模块里的几个函数,以及专门用于性能基准测试的

timeit

模块。

1. 使用

time.time()

进行简单计时

这是最直观也最常用的方法,它返回自纪元(通常是1970年1月1日00:00:00 UTC)以来的秒数。

立即学习“Python免费学习笔记(深入)”;

import timestart_time = time.time()# 你的代码块sum_val = 0for i in range(10000000):    sum_val += iend_time = time.time()print(f"代码执行时间 (time.time()): {end_time - start_time:.4f} 秒")

这种方法简单易用,适合测量整个脚本或较大代码块的运行时间。但它的精度受限于系统时钟,而且如果系统时间在代码运行期间被调整(比如通过NTP同步),结果可能会受到影响。

2. 使用

time.perf_counter()

进行高精度计时

time.perf_counter()

返回一个性能计数器的值,它是一个绝对时间,但通常不代表任何实际的日期时间,只用于测量短时间间隔。它的精度比

time.time()

更高,并且不受系统时钟调整的影响。

import timestart_perf = time.perf_counter()# 你的代码块_ = [x * x for x in range(10000000)]end_perf = time.perf_counter()print(f"代码执行时间 (time.perf_counter()): {end_perf - start_perf:.6f} 秒")

当我们需要对代码片段进行更精确的微基准测试时,

perf_counter

是更好的选择。

3. 使用

time.process_time()

测量CPU时间

time.process_time()

返回当前进程的系统和用户CPU时间之和。这意味着它只计算CPU花在执行代码上的时间,不包括I/O等待、睡眠或其他进程占用的时间。

import timestart_cpu = time.process_time()# 你的代码块# 模拟一些CPU密集型操作def fibonacci(n):    a, b = 0, 1    for _ in range(n):        a, b = b, a + b    return afibonacci(300000)end_cpu = time.process_time()print(f"代码执行CPU时间 (time.process_time()): {end_cpu - start_cpu:.6f} 秒")

如果你想知道代码实际“消耗”了多少CPU资源,而不是总的“墙钟时间”,

process_time

会给你更准确的答案。

4. 使用

timeit

模块进行专业的性能基准测试

timeit

模块专门为测量小段代码的执行时间而设计,它会多次运行你的代码,然后给出平均时间,从而减少单次运行的随机性误差和测量本身的开销。这对于比较不同算法或实现方式的性能差异非常有用。

import timeit# 比较两种列表生成方式的性能setup_code = "import random"stmt_list_comp = "[random.randint(0, 100) for _ in range(10000)]"stmt_loop_append = """my_list = []for _ in range(10000):    my_list.append(random.randint(0, 100))"""# 运行10000次,重复3次取最好成绩time_comp = timeit.timeit(stmt=stmt_list_comp, setup=setup_code, number=10000, repeat=3)time_loop = timeit.timeit(stmt=stmt_loop_append, setup=setup_code, number=10000, repeat=3)print(f"列表推导式执行时间 (timeit): {min(time_comp)/10000:.6f} 秒/次")print(f"循环append执行时间 (timeit): {min(time_loop)/10000:.6f} 秒/次")# 也可以直接测量函数def my_function():    return [x * 2 for x in range(10000)]# timeit.Timer 的用法timer = timeit.Timer("my_function()", globals=globals()) # globals=globals() 使得my_function可见result = timer.timeit(number=1000)print(f"my_function 执行时间 (timeit.Timer): {result/1000:.6f} 秒/次")
timeit

在命令行中也非常好用,比如

python -m timeit "'-'.join(str(n) for n in range(100))"

。它会自动帮你处理多次运行和平均值计算,非常方便。

Python中测量代码执行时间,为什么简单的

time.time()

有时不够精确?

这个问题其实挺有意思的,很多初学者或者说平时不深究的开发者,可能都会觉得

time.time()

就够用了,毕竟它也返回秒数嘛。但实际上,它在某些场景下确实会“掉链子”,或者说不够“诚实”。

首先,

time.time()

依赖的是系统时钟,也就是我们电脑右下角显示的时间。这个时间是可能被调整的。比如,你的系统会定期通过网络时间协议(NTP)与时间服务器同步,或者你手动改了时间。如果你的代码恰好在两次时间同步之间运行,或者在手动调整时间时跨越了那个点,那么

time.time()

计算出来的时间差就可能出现偏差,甚至可能是负数(虽然这种情况比较极端)。它就像你拿着一块普通手表计时,如果手表本身走时不准或者你中途调整了它,结果自然就不准确了。

其次,

time.time()

的精度在不同操作系统和Python版本上可能有所不同。虽然现代系统通常能提供毫秒甚至微秒级的精度,但在一些老旧系统或者某些特定的虚拟化环境中,它的分辨率可能没那么高,导致在测量非常短的代码片段时,误差相对较大。举个例子,如果一个操作只耗时几十微秒,而

time.time()

的最小跳动单位是毫秒,那它就无法精确捕捉到这个细微的差别。

再者,

time.time()

测量的是“墙钟时间”(wall-clock time),也就是从开始到结束,实际过去了多少时间。这个时间包含了CPU执行代码的时间、I/O等待时间(比如读写文件、网络请求)、以及操作系统调度其他进程所花费的时间。如果你只是想知道你的代码纯粹消耗了多少CPU资源,

time.time()

就会把这些非CPU执行的时间也算进去,导致结果不能真实反映代码本身的计算效率。

所以,当我们需要进行严格的性能分析,特别是微基准测试(micro-benchmarking)时,

time.time()

的这些局限性就显得尤为突出。这时,

time.perf_counter()

timeit

模块的优势就体现出来了。

perf_counter

提供的是高分辨率的、单调递增的计数器,它不关心系统时钟的调整,只管从一个点到另一个点流逝了多少“滴答”;而

timeit

则通过多次运行和统计,进一步规避了单次测量的随机误差和外部干扰,力求在“实验室条件”下给出最纯粹的性能数据。

如何使用

timeit

模块对Python函数进行性能基准测试?

timeit

模块是Python标准库中一个非常强大的工具,专门用于对小段代码或函数进行精确的性能基准测试。它的核心思想是:多次重复运行目标代码,然后取平均值或最佳值,以消除单次运行的随机性、垃圾回收、操作系统调度等因素带来的干扰。

使用

timeit

主要有两种方式:通过

timeit.timeit()

函数,或者通过

timeit.Timer

类。

1. 使用

timeit.timeit()

函数

这是最常用也最简洁的方式,特别适合快速测试一行或几行代码的性能。

import timeit# 假设我们想测试一个列表推导式的性能# stmt: 要执行的代码语句(字符串形式)# setup: 运行stmt之前需要执行的设置代码(字符串形式),比如导入模块或定义函数# number: stmt要执行的次数# repeat: 整个测试重复的次数,timeit会返回一个列表,包含每次重复的总时间# 示例1: 比较字符串拼接的效率# setup代码用于导入time模块,确保stmt中的time.time()可用setup_str = "import time"# 两种字符串拼接方式stmt_join = "''.join(str(n) for n in range(1000))"stmt_plus = "s = ''; for n in range(1000): s += str(n)"# 运行10000次,重复5次results_join = timeit.timeit(stmt=stmt_join, setup=setup_str, number=10000, repeat=5)results_plus = timeit.timeit(stmt=stmt_plus, setup=setup_str, number=10000, repeat=5)print(f"'-'.join() 方式 (最佳): {min(results_join):.6f} 秒 (总计 {10000} 次)")print(f"'+=' 方式 (最佳): {min(results_plus):.6f} 秒 (总计 {10000} 次)")# 示例2: 测量一个自定义函数的性能def my_complex_calculation(n):    return sum(i*i for i in range(n))# setup中定义函数,并确保其在timeit执行环境中可见# globals=globals() 是一个技巧,它将当前全局命名空间传递给timeit,# 这样my_complex_calculation就可以在stmt中被调用了。setup_func = "from __main__ import my_complex_calculation" # 或者直接 globals=globals()time_func = timeit.timeit(stmt="my_complex_calculation(10000)", setup=setup_func, number=1000, repeat=3)print(f"my_complex_calculation(10000) 最佳执行时间: {min(time_func):.6f} 秒 (总计 {1000} 次)")
timeit.timeit()

会返回一个包含

repeat

次测试结果的列表。通常我们关注的是这个列表中的最小值(

min()

),因为它最能代表代码在“最佳”状态下的性能,排除了由于操作系统调度、垃圾回收或其他后台任务造成的偶然性延迟。

2. 使用

timeit.Timer

Timer

类提供了更灵活的控制,特别适合当你需要多次运行同一个测试,或者在测试前进行复杂的设置时。

import timeit# 假设我们要测试一个排序函数的性能data_size = 10000# setup代码用于生成随机数据,确保每次测试的数据是独立的setup_timer = f"""import randomdata = [random.randint(0, 10000) for _ in range({data_size})]"""# stmt是我们要测试的代码,这里我们使用list.sort()stmt_timer = "data.sort()"# 创建Timer对象# Timer(stmt, setup, timer=default_timer, globals=None)# default_timer 通常是 time.perf_counter(),提供高精度计时timer_obj = timeit.Timer(stmt=stmt_timer, setup=setup_timer)# 运行测试# timeit(number=DEFAULT_NUMBER) 方法执行测试# repeat(repeat=DEFAULT_REPEAT, number=DEFAULT_NUMBER) 方法返回多次重复的结果results_timer = timer_obj.repeat(repeat=5, number=100) # 重复5次,每次运行100次stmtprint(f"list.sort() 排序 {data_size} 个元素 (最佳): {min(results_timer):.6f} 秒 (总计 {100} 次)")
timeit

模块的精髓在于它的“隔离性”和“重复性”。

setup

参数确保了每次测试都在一个相对干净、一致的环境下进行,避免了前一次运行对后一次的影响。而

number

repeat

参数则通过大量重复运行,让我们可以从统计学上获得更可靠的性能数据,过滤掉那些偶然的“噪音”。当你需要对比不同算法的性能优劣,或者找出代码中真正的性能瓶颈时,

timeit

无疑是你的得力助手。

在Python性能优化过程中,除了时间测量,还有哪些关键考量?

单纯测量代码运行时间只是性能优化的第一步,它告诉你“哪里慢了”,但并没有直接告诉你“为什么慢”以及“如何变快”。要真正做好性能优化,我们需要更全面的视角和更深入的分析。

1. 内存使用效率

时间是重要的,但内存同样关键。一个运行很快但吃掉所有内存的程序显然不是一个好程序。

内存分析器:

memory_profiler

objgraph

等工具可以帮助你追踪程序运行时的内存使用情况,找出内存泄漏或不必要的内存占用数据结构选择: Python内置的数据结构(列表、字典、集合、元组)各有优劣。例如,列表的append操作很快,但在头部插入或删除效率低;字典查找效率高,但有额外内存开销。选择合适的数据结构能显著影响内存和时间性能。生成器表达式: 当处理大量数据时,使用生成器(generator)而非一次性生成整个列表,可以大大减少内存占用,实现“惰性计算”。

2. CPU剖析(Profiling)

时间测量告诉你总耗时,但CPU剖析能深入到函数层面,告诉你哪个函数、哪行代码占用了最多的CPU时间。

cProfile

profile

模块: Python标准库提供了这两个强大的工具。它们可以生成详细的报告,显示每个函数的调用次数、总耗时、以及自身耗时(不包括其调用的子函数)。通过可视化工具(如

snakeviz

),可以更直观地看到调用图和性能瓶颈。关注热点 剖析报告会帮你找到“热点”函数,也就是那些被频繁调用或自身执行时间很长的函数,这往往是优化的重点。

3. I/O操作与网络延迟

很多时候,程序的瓶颈不在于CPU计算,而在于等待外部资源,比如:

文件读写: 大文件的读写速度受限于硬盘性能。网络请求: API调用、数据库查询等都涉及网络延迟,这是程序自身难以控制的外部因素。数据库交互: 复杂的SQL查询、不合理的索引都会导致数据库响应缓慢。对于这类问题,优化思路可能包括批量处理、缓存、异步I/O(如

asyncio

)或并行处理。

4. 算法复杂度

这是性能优化的根本。一个O(N^2)的算法,无论你用多么快的语言或多强的硬件,在数据量N增大时,都无法与一个O(N log N)或O(N)的算法匹敌。

大O表示法: 理解你所用算法的时间和空间复杂度。选择更优算法: 很多时候,性能瓶颈是由于选择了次优的算法。例如,从线性搜索改为二分搜索,或从冒泡排序改为快速排序。

5. Python的全局解释器锁(GIL)

Python的GIL是一个特殊的存在,它确保在任何给定时刻,只有一个线程在执行Python字节码。这意味着,即使在多核CPU上,纯Python的多线程程序也无法真正并行执行CPU密集型任务。

CPU密集型任务: 对于这类任务,多进程(

multiprocessing

模块)是更好的选择,因为每个进程都有自己的Python解释器和GIL。I/O密集型任务: GIL对I/O操作影响较小,因为在等待I/O时,GIL会被释放,其他线程可以运行。因此,多线程在I/O密集型任务中仍能发挥作用。C扩展: 如果对性能有极致要求,可以将核心的CPU密集型部分用C/C++编写成Python扩展模块,它们可以绕过GIL。

6. 代码可读性与性能的权衡

最后但同样重要的一点是,不要为了微小的性能提升而牺牲代码的可读性、可维护性。过早优化(Premature Optimization)是编程中的一大陷阱。通常,我们应该先写出清晰、正确的代码,然后通过测量找出真正的瓶颈,再针对性地进行优化。有时候,一个简单的重构或更清晰的逻辑,反而能带来意想不到的性能提升。

总之,性能优化是一个系统工程,需要结合多种工具和方法,从不同维度审视代码,才能找到最有效、最可持续的解决方案。

以上就是python如何计算程序的运行时间_python计算代码执行时间的方法的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1371282.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 11:18:22
下一篇 2025年12月14日 11:18:38

相关推荐

  • python如何获取脚本所在的目录_python获取当前执行脚本文件所在路径

    最推荐使用pathlib.Path(__file__).resolve().parent获取脚本所在目录,它在Python 3.4+中提供面向对象、跨平台且可读性强的路径操作,能可靠解析绝对路径并返回父目录,优于传统的os.path.dirname(os.path.abspath(__file__)…

    2025年12月14日
    000
  • python怎么将一个嵌套列表扁平化_python嵌套列表扁平化方法

    扁平化嵌套列表的核心是根据嵌套深度和数据规模选择合适方法:递归适用于任意深度但受限于调用栈;生成器结合yield from兼顾性能与内存;itertools.chain.from_iterable适合浅层嵌套且效率高;sum()方法简洁但性能差;列表推导式限于固定两层。处理混合类型时需用isinst…

    2025年12月14日
    000
  • python中如何退出一个循环_Python中break与continue循环控制

    break语句用于立即终止当前循环,如搜索到目标值后停止遍历;continue语句则跳过当前迭代剩余部分,直接进入下一次迭代,常用于筛选数据或跳过无效项。两者均只作用于最内层循环,多层嵌套时需借助标志变量或函数返回实现外层跳出。 Python中,要退出一个循环,我们主要依赖两个强大的控制流语句: b…

    2025年12月14日
    000
  • Python怎么计算两个集合的交集和并集_Python集合运算操作指南

    Python中集合的交集和并集可通过运算符或方法实现:使用&或intersection()求交集,|或union()求并集,两者功能相似但后者支持多集合操作。此外,集合还支持差集(-)、对称差集(^)、子集判断(issubset)等运算,底层基于哈希表实现,具有高效性,适用于数据去重…

    2025年12月14日
    000
  • HDF5中扁平化图像数据的高效读取与重构教程

    本教程详细阐述了如何从HDF5文件中读取存储为一维数组的图像数据,并将其成功重构为可视图形。文章首先解析了HDF5中数据集与组的概念,并指出了图像维度信息缺失是重构过程中的核心挑战。接着,提供了通过检查数据集属性、探查伴随数据集以及使用HDFView工具来获取关键维度信息的策略。最后,通过Pytho…

    2025年12月14日
    000
  • python怎么生成一个随机数_python随机数生成方法汇总

    Python生成随机数主要使用random模块,提供random()、uniform()、randint()、randrange()等函数生成浮点数和整数,choice()、sample()、shuffle()处理序列随机操作,而secrets模块用于加密安全的随机性需求。 Python要生成随机数…

    2025年12月14日
    000
  • Python高效处理用户输入与字符串操作的技巧

    本文探讨了在Python中优化用户输入处理和字符串迭代的策略。通过避免冗余的索引迭代、直接集成input()函数以及简化条件判断,展示了如何编写更简洁、高效且符合Pythonic风格的代码,尤其适用于单行代码场景。 在python编程中,高效地处理用户输入和字符串操作是提升代码质量的关键。许多初学者…

    2025年12月14日
    000
  • Python模块动态扩展:深入理解“猴子补丁”与IDE智能提示的局限性

    本文探讨了在Python中向内置模块动态添加方法(即“猴子补丁”)的原理、实现方式及其潜在风险。我们将解释为何此类操作在IDE中通常无法获得智能提示,并深入分析“猴子补丁”的优缺点。文章强调,除非在特定场景(如测试),否则应避免对核心模块进行此类修改,并建议更稳健的代码组织方式。 Python模块的…

    2025年12月14日
    000
  • Python单元测试:正确模拟json模块以避免TypeError

    本文深入探讨了在Python单元测试中模拟json.dumps()时可能遇到的TypeError: Object of type MagicMock is not JSON serializable问题。核心解决方案在于理解Python的导入机制和unittest.mock的工作原理,即应模拟被测试…

    2025年12月14日
    000
  • Python中如何根据字符串动态获取变量值

    本教程探讨了Python中根据字符串动态获取变量值的方法。当需要通过拼接字符串来构造变量名并访问其对应的值时,可以使用globals()函数来查找全局变量。文章将详细介绍globals()的使用,并强调在实际开发中,使用字典结构存储相关数据是更安全、更推荐的实践。 理解动态变量名的需求 在编程实践中…

    2025年12月14日
    000
  • Python中动态变量名访问与最佳实践:globals()与字典的应用

    本教程探讨了在Python中根据运行时生成的字符串动态访问变量值的方法。我们将首先分析直接字符串拼接的局限性,然后介绍如何利用globals()函数从全局符号表中获取变量,并重点推荐使用字典(dictionary)作为更灵活、更安全且符合Pythonic风格的动态数据管理方案,提供详细的代码示例和最…

    2025年12月14日
    000
  • HDF5中一维数组图像数据的读取与可视化教程

    本教程详细阐述了如何从HDF5文件中读取存储为一维数组的图像数据,并将其正确重构为可视图形。文章首先澄清HDF5中数据集与组的概念,指出图像数据被扁平化存储是导致PIL库报错的关键原因。随后,提供了查找原始图像维度(如通过数据集属性或HDFView工具)的多种策略,并指导读者如何利用这些维度信息将一…

    2025年12月14日
    000
  • 从HDF5一维数组重构图像:Python数据处理与可视化指南

    本文旨在解决HDF5文件中图像数据以一维数组形式存储时,如何正确读取并重构为可视图形的问题。教程将详细阐述HDF5文件结构,解释为何直接尝试可视化会失败,并提供查找缺失图像维度信息的策略(如检查数据集属性、使用HDFView等)。最终,通过Python示例代码演示如何利用NumPy和Pillow库将…

    2025年12月14日
    000
  • python中如何深度拷贝一个对象_Python深拷贝与浅拷贝的区别与实现

    深度拷贝通过copy.deepcopy()递归复制对象及其所有嵌套对象,确保新旧对象完全独立;浅拷贝通过copy.copy()或切片仅复制对象本身和直接引用,共享嵌套的可变对象。选择深拷贝可避免修改副本影响原始数据,尤其在处理复杂结构、循环引用或需数据隔离时至关重要;浅拷贝适用于性能敏感且无需修改嵌…

    2025年12月14日
    000
  • python中怎么获取一个对象的所有属性?

    要获取Python对象的所有属性,常用方法是dir()和__dict__;dir()返回对象所有可访问的属性和方法(包括继承和特殊方法),适用于探索对象的完整接口;而__dict__仅包含实例自身的数据属性,不包含方法和类属性,适合查看实例状态。两者区别在于:dir()提供全面的成员列表,__dic…

    2025年12月14日
    000
  • python中什么是PEP 8编码规范?

    PEP 8是Python官方推荐的编码风格指南,旨在提升代码可读性、一致性和可维护性。它通过统一缩进(4个空格)、行长度限制(79字符)、命名规范(snake_case、CamelCase等)和导入顺序等规则,使代码更清晰易读。遵循PEP 8有助于团队协作、降低理解成本、减少错误,并体现开发者专业素…

    2025年12月14日
    000
  • HDF5文件中的一维图像数组重构:数据读取、维度恢复与可视化教程

    本教程旨在解决从HDF5文件中读取存储为一维数组的图像并进行重构的挑战。文章将指导读者理解HDF5数据结构,识别扁平化图像数据,并提供多种策略(包括检查数据集属性、查找伴随数据集及使用HDFView工具)来获取关键的图像维度信息。最终,通过Python代码示例演示如何将一维数组成功重塑为可视图的图像…

    2025年12月14日
    000
  • 在VS Code中配置Python解释器优化模式的实践指南

    本文旨在解决在VS Code中使用launch.json配置Python解释器优化模式(如-O或-O2)时遇到的挑战。由于VS Code的Python扩展当前不支持直接在launch.json中传递解释器选项,我们将介绍一种实用的解决方案:通过创建并运行一个Python包装脚本来间接实现对解释器选项…

    2025年12月14日
    000
  • VirusTotal API v3 URL扫描:正确获取分析报告的实践指南

    针对VirusTotal API v3进行URL扫描时,许多开发者常混淆分析ID与URL资源ID,导致获取报告失败。本文详细阐述了如何正确使用API提交URL进行扫描,并利用返回的分析ID查询详细的扫描报告,避免常见的“Wrong URL id”错误,确保成功集成安全检测功能。 VirusTotal…

    2025年12月14日
    000
  • 解决Streamlit应用中stqdm中断导致的冻结问题

    当在Streamlit应用中使用stqdm.pandas.progress_apply进行长时间操作时,若应用被意外中断,可能导致下次运行时冻结。本文将深入探讨此问题,并提供一个有效的解决方案:通过设置stqdm.set_lock(RLock())来避免因锁定机制冲突而引发的应用崩溃,尤其在Wind…

    2025年12月14日
    000

发表回复

登录后才能评论
关注微信