C++如何在内存管理中处理多线程资源共享

答案是使用互斥锁、原子操作和条件变量等同步机制协调共享资源访问。C++中通过std::mutex保护临界区,std::atomic实现无锁原子操作,std::condition_variable支持线程等待与通知,结合RAII、读写锁、消息队列和并行算法等高级技术,可有效避免数据竞争、死锁和虚假共享,提升多线程程序的安全性与性能。

c++如何在内存管理中处理多线程资源共享

在C++中处理多线程资源共享,核心在于通过明确的同步机制来协调对共享数据的访问,以防止数据竞争(data race)和确保数据一致性。这通常涉及使用互斥锁(mutexes)、原子操作(atomics)和条件变量(condition variables)等工具,并结合良好的设计模式来管理内存和资源生命周期。

解决方案

多线程环境下,当多个线程尝试同时读写同一块内存区域或共享资源时,如果没有适当的同步,就会出现不可预测的行为,这就是所谓的数据竞争。我的经验告诉我,解决这个问题,首先得从理解问题的本质开始:并非所有共享都是危险的,危险的是“非同步”的“并发修改”。

C++标准库提供了一套强大的工具来应对这些挑战:

互斥锁(

std::mutex

)及其RAII封装:这是最常用也最直观的同步机制。

std::mutex

可以确保在任何给定时间,只有一个线程能够访问受保护的代码段(临界区)。为了安全且方便地使用互斥锁,我们通常会结合RAII(Resource Acquisition Is Initialization)原则,使用

std::lock_guard

std::unique_lock

。它们会在构造时自动加锁,在析构时自动解锁,极大地简化了错误处理和避免死锁的复杂性。

#include #include #include #include std::mutex mtx;std::vector shared_data;void add_to_data(int value) {    std::lock_guard lock(mtx); // 自动加锁    shared_data.push_back(value);    // lock_guard 在函数结束时自动解锁}// 实际应用中,会创建多个线程调用 add_to_data
std::unique_lock

提供了更灵活的锁定管理,比如可以延迟锁定、尝试锁定或在多个互斥锁之间进行锁定。

立即学习“C++免费学习笔记(深入)”;

条件变量(

std::condition_variable

):互斥锁解决了并发访问的问题,但有时线程需要等待某个条件满足才能继续执行。条件变量就是为此而生,它通常与互斥锁一起使用。一个线程可以在条件变量上等待,直到另一个线程通知它某个条件已经满足。这对于实现生产者-消费者模型等场景至关重要。

#include // ... (结合 mutex 使用)

原子操作(

std::atomic

):对于简单的、单个内存位置的操作(如计数器增减、布尔标志),互斥锁可能显得过于重量级,引入不必要的开销。

std::atomic

提供了一种无锁(lock-free)的并发访问方式,确保这些操作是原子性的,即不可中断的。这意味着即使在多线程环境下,这些操作也会被视为单个、不可分割的单元。

#include #include #include std::atomic counter{0};void increment_counter() {    for (int i = 0; i < 100000; ++i) {        counter.fetch_add(1); // 原子地增加1    }}// 多个线程调用 increment_counter,最终 counter 会是正确的值

原子操作的性能通常优于互斥锁,但它只适用于非常特定的场景。

线程局部存储(

thread_local

):有时候,我们根本不需要共享数据,而是每个线程拥有自己独立的数据副本。

thread_local

关键字就能实现这一点,它为每个线程创建变量的一个独立实例,从而完全避免了同步问题。

thread_local int thread_specific_id = 0;

设计模式和策略:

最小化共享状态: 尽量设计程序,让线程之间共享的数据越少越好。不可变数据: 如果数据一旦创建就不会被修改,那么多个线程可以安全地读取它而无需任何同步。消息传递: 线程之间通过消息队列进行通信,而不是直接共享内存。这可以大大简化并发模型的复杂性。RAII原则: 再次强调,利用RAII管理所有资源(内存、文件句柄、锁等),确保它们在不再需要时能被正确释放。

在我的实践中,我发现没有一劳永逸的解决方案。选择哪种机制,或者它们的组合,取决于具体的应用场景、性能要求以及共享数据的复杂性。

C++多线程内存访问常见的陷阱有哪些?如何有效规避?

C++多线程编程中的内存访问陷阱,往往是那些看似无害,实则能让程序行为变得捉摸不定的“暗坑”。最常见也是最危险的,无疑是数据竞争(Data Race)。当至少两个线程并发地访问同一个内存位置,并且至少有一个是写入操作,而这些访问又没有通过适当的同步机制进行协调时,数据竞争就发生了。它的后果是未定义行为,可能导致程序崩溃、数据损坏,或者更糟糕的是,偶尔出现难以复现的错误。

另一个常见的陷阱是死锁(Deadlock)。这通常发生在两个或更多线程互相等待对方释放资源时。比如,线程A持有锁L1并尝试获取锁L2,而线程B持有锁L2并尝试获取锁L1。它们会永远互相等待下去。

活锁(Livelock)虽然不如死锁常见,但同样棘手。线程并没有阻塞,而是不断地尝试获取资源,但由于某种原因(比如都遵循相同的退避策略),它们总是互相“让步”,导致谁也无法取得进展,CPU资源被白白消耗。

饥饿(Starvation)是指某个线程长时间无法获取到所需的资源,因为它总是被其他优先级更高或更“幸运”的线程抢占。

虚假共享(False Sharing)是一个性能陷阱,而非正确性陷阱。它发生在不同线程访问不同的数据,但这些数据碰巧位于同一个CPU缓存行中。当一个线程修改了它的数据,整个缓存行被标记为脏,并需要写回主内存,导致其他线程的缓存副本失效,即使它们访问的数据并没有被修改。这会引起不必要的缓存同步开销。

如何规避这些陷阱?

预防数据竞争: 这是基石。

使用互斥锁: 任何时候,只要有共享的可变数据,就用

std::mutex

及其RAII封装(

std::lock_guard

std::unique_lock

)来保护访问。确保所有对该数据的读写操作都在锁的保护之下。使用原子操作: 对于简单的、单个变量的操作,如计数器,

std::atomic

是更高效的选择。减少共享: 重新设计数据结构或算法,尽可能减少线程间共享的数据量。如果数据不是必须共享,就不要共享。线程局部存储: 利用

thread_local

为每个线程提供独立的数据副本,彻底消除对该数据的同步需求。

避免死锁:

一加锁顺序: 如果一个线程需要获取多个锁,确保所有线程都以相同的顺序获取这些锁。这是避免死锁最有效的方法之一。避免嵌套锁: 尽量避免在一个锁的临界区内再尝试获取另一个锁。使用

std::unique_lock

try_lock

std::lock

std::lock

可以原子地获取多个互斥锁,避免死锁。

try_lock

则允许线程在无法立即获取锁时放弃并执行其他操作。资源分层: 将资源组织成一个层次结构,并要求线程按照层次顺序获取资源。

处理活锁和饥饿:

随机退避: 在尝试获取资源失败后,引入随机的等待时间再重试,可以有效避免活锁。优先级反转避免: 确保高优先级任务不会因为等待低优先级任务释放资源而长时间阻塞。公平锁: 虽然C++标准库的

std::mutex

不保证公平性,但可以自己实现或使用第三方库中提供公平性保证的锁。

缓解虚假共享:

对齐数据: 将经常被不同线程访问但又彼此独立的数据,通过填充(padding)或

alignas

关键字强制它们位于不同的缓存行。数据局部性: 尽量将同一个线程需要访问的数据放在一起,提高缓存命中率。

规避这些陷阱的关键在于细致的思考和严谨的设计。每次引入共享资源或并发操作时,都要问自己:“这里会有数据竞争吗?可能发生死锁吗?性能瓶颈在哪里?”

C++同步原语如互斥锁和原子操作在资源共享应用上有什么区别

互斥锁(

std::mutex

)和原子操作(

std::atomic

)都是C++中用于处理多线程资源共享的重要同步原语,但它们在设计哲学、适用场景、性能开销和编程复杂性上有着显著的区别。理解这些差异,是选择正确工具的关键。

std::mutex

(互斥锁)

设计哲学:

std::mutex

提供了一种悲观锁定(Pessimistic Locking)机制。它假设对共享资源的访问冲突是常态,因此在访问前就先加锁,确保同一时间只有一个线程能进入临界区。适用场景:保护复杂数据结构: 当你需要保护一个包含多个成员变量的对象、一个容器(如

std::vector

std::map

)或一个需要一系列操作才能保持一致性的代码块时,互斥锁是理想选择。需要长时间保护的临界区: 如果临界区内的操作耗时较长,或者涉及多个步骤,互斥锁能提供稳健的保护。控制访问权限: 不仅仅是内存,互斥锁也可以用来保护对其他共享资源(如文件句柄、网络连接)的访问。性能开销: 相对较高。加锁和解锁操作通常涉及系统调用或内核态操作,并且在线程竞争激烈时,可能导致上下文切换。即便没有竞争,也有一定的开销。编程复杂性: 相对简单。主要任务是识别临界区,并在进入和退出时正确加锁和解锁(通常通过RAII封装自动完成)。然而,它引入了死锁的风险,需要小心管理。粒度: 粗粒度。它保护的是一个代码块,而不是单个变量。

std::atomic

(原子操作)

设计哲学:

std::atomic

提供了一种乐观锁定(Optimistic Locking)无锁(Lock-Free)机制。它假设访问冲突不频繁,或者可以通过硬件指令来解决。它确保对单个内存位置的操作是不可中断的。适用场景:简单数据类型: 主要用于保护单个、简单的基本数据类型(如

int

,

bool

, 指针),或满足特定要求的自定义类型。计数器、标志位: 增减计数器、设置布尔标志等操作是

std::atomic

的典型应用。性能敏感的场景: 在需要极高性能、避免锁开销和上下文切换的场景下,原子操作是首选。构建无锁数据结构: 虽然复杂,但它是构建高效无锁数据结构(如无锁队列)的基础。性能开销: 相对较低。大多数原子操作(尤其是针对基本类型)都可以直接映射到CPU的原子指令,避免了内核态的开销。在无竞争或低竞争环境下,性能远超互斥锁。编程复杂性: 较高。虽然单个原子操作本身简单,但组合多个原子操作来构建复杂的线程安全逻辑非常困难,容易出错,且需要深入理解内存模型(memory model)和内存序(memory order)。粒度: 细粒度。它保护的是单个变量或内存位置。

核心区别总结:

特性 @@######@@ @@######@@

机制悲观锁定,基于操作系统/调度器无锁,基于硬件原子指令保护对象任意复杂度的临界区,多条指令单个内存位置,单条指令操作性能较高开销(上下文切换,系统调用)较低开销(直接硬件指令,通常用户态)适用性广泛,适用于复杂资源和长时间操作简单数据类型,频繁、快速的单值操作风险死锁、活锁、饥饿难以正确组合复杂操作,内存序理解困难粒度粗粒度细粒度

我的看法是,当你面对一个需要线程安全的问题时,默认应该先考虑

std::mutex

。它更易于理解和正确使用,并且能够处理绝大多数情况。只有当你确定互斥锁成为性能瓶颈,并且问题可以通过原子操作优雅地解决时,才应该转向

std::atomic

。但请记住,

std::mutex

的强大伴随着更高的心智负担和潜在的陷阱。

除了基础锁定,C++中有哪些高级技术或设计模式能提升多线程性能和安全性?

当我们谈论C++多线程编程,仅仅停留在

std::atomic

std::atomic

的基础使用上是远远不够的。为了在复杂场景下提升性能、确保正确性,并写出更易于维护的代码,我们需要一些更高级的技术和设计模式。这些方法往往是基于基础原语构建的,但提供了更高层次的抽象或更精细的控制。

读写锁(

std::mutex

):在许多场景中,数据被读取的频率远高于被写入的频率。

std::atomic

在任何时候都只允许一个线程访问,这对于读操作来说过于保守。

std::shared_mutex

(在C++17中引入)解决了这个问题,它允许:

任意数量的线程同时获取共享锁(shared lock),进行读操作。只有一个线程可以获取独占锁(exclusive lock),进行写操作。当有线程持有共享锁时,其他线程不能获取独占锁;当有线程持有独占锁时,其他线程不能获取任何锁。这显著提升了读多写少场景下的并发性能。

std::mutex

无锁(Lock-Free)数据结构:这是并发编程的“圣杯”之一。无锁数据结构(如无锁队列、无锁栈)通过巧妙地使用原子操作和内存序,避免了互斥锁带来的开销和死锁风险。它们通常利用

std::shared_mutex

#include #include #include #include std::shared_mutex rw_mtx;std::vector data_store;void read_data() {    std::shared_lock lock(rw_mtx); // 共享锁    // ... 读取 data_store}void write_data(int value) {    std::unique_lock lock(rw_mtx); // 独占锁    data_store.push_back(value);    // ... 写入 data_store}

std::atomic

操作来实现“尝试-比较-交换”(CAS)循环。然而,设计和实现正确的无锁数据结构极其复杂,需要对C++内存模型有深入的理解,且调试难度巨大。通常情况下,除非有非常严格的性能要求,否则不建议自行实现,而是使用成熟的库(如Boost.Lockfree)。

消息队列/生产者-消费者模式:这是一种经典的并发设计模式,通过解耦生产者线程和消费者线程来提高并发性。生产者将任务或数据放入一个队列,消费者从队列中取出任务或数据进行处理。队列本身需要是线程安全的(通常通过互斥锁和条件变量实现)。这种模式的好处在于:

解耦: 生产者和消费者可以独立运行,互不干扰。流量控制: 队列可以作为缓冲区,平滑处理生产者和消费者速度不匹配的情况。易于扩展: 可以轻松添加更多的生产者或消费者。

compare_exchange_weak

compare_exchange_strong

C++11引入的

std::future

std::async

提供了一种更高级别的并发抽象。

std::future

可以异步执行一个函数,并返回一个

std::async

对象。通过

std::async

,你可以在之后获取异步操作的结果,或者等待它完成。这对于任务并行化非常有用,避免了直接管理线程和同步原语的复杂性。

std::future

内存池(Memory Pools)和自定义分配器:在多线程高并发场景下,频繁地进行堆内存分配(

std::future

/

#include #include #include #include long long sum_vector(const std::vector& vec) {    return std::accumulate(vec.begin(), vec.end(), 0LL);}int main() {    std::vector data(1000000, 1);    auto future_result = std::async(std::launch::async, sum_vector, std::ref(data));    // 主线程可以继续做其他事情    long long result = future_result.get(); // 等待并获取结果    std::cout << "Sum: " << result << std::endl;    return 0;}

)可能会成为性能瓶颈,因为全局堆分配器通常需要内部同步。为了解决这个问题,可以为每个线程分配一个私有的内存池,或者使用自定义的线程安全内存分配器。这样可以减少对全局锁的争用,提高内存分配的效率。

并行算法(Parallel Algorithms):C++17引入了并行版本的标准库算法(如

new

delete

std::for_each

等),它们接受一个执行策略参数(

std::sort

std::transform

)。这允许你以声明式的方式表达并行意图,而无需手动管理线程和同步,编译器和库会负责底层的并行化。

std::execution::par

这些高级技术和模式,在我看来,都是为了在保证线程安全的前提下,榨取更多的并发性能,或是简化复杂的并发编程模型。选择哪种方法,往往取决于具体问题的规模、数据的访问模式以及对性能和开发效率的权衡。有时候,一个简单的

std::execution::par_unseq

就能解决问题,而另一些时候,则需要深入到无锁编程的复杂世界。关键在于理解它们的优缺点,并根据实际需求做出明智的选择。

#include #include #include  // C++17int main() {    std::vector vec(1000000);    // ... 填充 vec    std::for_each(std::execution::par, vec.begin(), vec.end(), [](int& n){        n *= 2; // 并行地将每个元素乘以2    });    return 0;}
std::mutex

以上就是C++如何在内存管理中处理多线程资源共享的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1474751.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月18日 21:50:49
下一篇 2025年12月18日 21:50:54

相关推荐

  • C++如何在异常处理中释放动态资源

    使用RAII机制可确保异常安全下的资源释放,推荐智能指针如std::unique_ptr管理内存,自定义类封装非内存资源,在构造函数获取资源、析构函数释放,避免手动清理。 在C++中,异常处理过程中释放动态资源的关键在于避免资源泄漏,尤其是在异常发生时传统的清理代码可能无法执行。直接依赖 try-c…

    2025年12月18日
    000
  • C++STL容器splice和merge操作方法解析

    splice用于高效移动元素,仅修改指针,如list1.splice(list1.end(), list2)将list2所有元素移至list1尾部;merge用于合并两个有序链表,如listA.merge(listB)将已排序的listB合并到listA并保持有序,两者均不涉及元素拷贝,但splic…

    2025年12月18日
    000
  • C++内存管理基础中内存重用和缓存优化技巧

    内存重用和缓存优化是提升C++程序性能的核心技术,通过减少new/delete开销和提高CPU缓存命中率来实现高效内存访问。 C++内存管理中,内存重用和缓存优化可不是什么花哨的技巧,它们是实打实地能让你的程序跑得更快、更稳定的核心技术。在我看来,这不仅仅是减少 new/delete 的调用次数那么…

    2025年12月18日
    000
  • C++指针参数传递 值传递引用传递对比

    值传递复制数据不修改原值,适用于小对象;指针传递通过地址操作原数据,可修改但需防空指针;引用传递以别名方式直接操作原变量,高效安全,适合性能敏感场景。 在C++中,函数参数传递有三种常见方式:值传递、指针传递和引用传递。它们在性能、内存使用和数据修改能力上各有不同,理解它们的差异对编写高效、安全的代…

    2025年12月18日
    000
  • 如何在C++的map中使用自定义结构体作为键(key)

    要在C++的std::map中使用自定义结构体作为键,必须提供明确的比较规则以满足严格弱序要求,通常通过重载operator 要在C++的 std::map 中使用自定义结构体作为键,核心在于让 map 知道如何比较这些结构体实例的大小。这通常通过为你的结构体定义一个 operator< 重载…

    2025年12月18日 好文分享
    000
  • C++如何实现策略模式和多态结合

    策略模式通过抽象基类定义统一接口,具体策略类重写虚函数实现多态;2. 上下文使用基类指针调用execute,动态切换不同策略算法。 在C++中,策略模式结合多态主要通过基类指针或引用调用派生类的虚函数来实现行为的动态切换。核心是定义一个抽象策略接口,多个具体策略实现该接口,上下文类通过多态调用不同策…

    2025年12月18日
    000
  • C++折叠表达式实现参数包高效运算

    C++折叠表达式通过运算符将参数包折叠为单值,支持一元和二元左/右折叠,常用于求和、逻辑运算、函数调用等场景,相比循环更简洁且可编译时优化,需注意空包、优先级和类型问题,广泛应用于元编程如类型检查。 C++折叠表达式是一种简洁而强大的特性,它允许我们对参数包进行各种运算,从而实现高效的代码。它本质上…

    2025年12月18日
    000
  • C++数组与指针中二维数组与指针数组的区别

    二维数组是连续内存块,元素按行优先存储,声明如int arr3,内存自动管理;指针数组是元素为指针的数组,如int* ptrArr[3],每个指针可指向动态分配的内存,内存非连续且需手动释放;二者在内存布局、初始化、大小固定性、内存管理和函数传参上均有区别,二维数组适用于固定结构数据,指针数组支持灵…

    2025年12月18日
    000
  • C++如何实现工厂模式创建对象

    工厂模式通过抽象基类和多态实现对象创建与使用的分离。1. 定义抽象基类Product,包含纯虚函数use;2. 派生具体类ConcreteProductA和ConcreteProductB;3. 工厂函数根据条件返回不同产品指针;4. 客户端通过基类指针调用use,实现多态。关键点:使用智能指针管理…

    2025年12月18日
    000
  • C++如何实现自定义异常信息输出

    通过继承std::exception并重写what()方法可自定义异常信息输出,支持静态消息、使用runtime_error简化实现及动态拼接行号函数名等详细信息,提升错误描述能力与程序可维护性。 在C++中,自定义异常信息输出主要通过继承标准异常类 std::exception 或其派生类(如 s…

    2025年12月18日
    000
  • C++如何在STL中实现容器与数组互操作

    使用指针或迭代器可用数组初始化STL容器,如vector vec(arr, arr + 5);通过std::copy可将容器元素复制回数组;连续内存容器(如vector、array)支持data()获取指针,实现与C函数互操作;std::array因内存布局兼容原生数组,可直接用于C风格接口,注意内…

    2025年12月18日
    000
  • C++STL容器swap函数使用与性能优化

    答案:swap函数通过交换容器元数据实现O(1)时间复杂度的内容交换,常用于收缩内存、避免深拷贝和资源管理;例如用vector(v).swap(v)释放多余容量,或与空容器swap清空并释放内存;需注意类型一致性和迭代器失效问题,C++11后std::swap默认高效支持移动语义。 在C++ STL…

    2025年12月18日
    000
  • C++环境搭建时如何选择合适的C++标准版本

    选择C++标准版本需权衡性能、兼容性和新特性,结合项目需求、平台、依赖库及团队技术栈综合决策。 选择合适的C++标准版本,其实就是在性能、兼容性和新特性之间找到一个平衡点。没有绝对的最佳选择,只有最适合你项目情况的选择。 选择C++标准版本,需要结合项目需求、目标平台、依赖库以及团队技术栈来综合考虑…

    2025年12月18日
    000
  • C++智能指针哈希支持 无序容器中使用

    C++智能指针需自定义哈希和相等函数才能作为无序容器的键,因默认按指针地址比较;应解引用比较对象内容,并处理空指针情况,同时注意shared_ptr的循环引用风险及性能优化。 C++智能指针可以直接作为键值用于无序容器,但需要自定义哈希函数和相等比较函数。核心在于让哈希函数基于智能指针指向的对象的实…

    2025年12月18日
    000
  • C++异常传播机制与函数调用栈解析

    异常沿调用栈向上传播直至被捕获。当throw执行时,异常对象创建并终止当前函数,若无匹配catch则逐层回溯,如funcC抛出异常未在funcB、funcA捕获,最终由main函数中catch处理。 当C++程序运行过程中发生异常,异常会沿着函数调用栈向上传播,直到被合适的catch块捕获。理解这一…

    2025年12月18日
    000
  • Visual Studio 2022安装C++桌面开发工作负载时有哪些注意事项

    答案:安装Visual Studio 2022的C++桌面开发工作负载需精细化选择组件、预留足够磁盘空间、确保网络稳定、理解工具集与SDK版本对项目兼容性及部署的影响。应仅安装必要组件如MSVC v143、最新Windows SDK、按需添加MFC/ATL或CMake支持,避免冗余;建议使用SSD并…

    2025年12月18日
    000
  • C++如何在内存管理中使用内存对齐优化性能

    内存对齐能减少CPU访问内存次数并提升缓存命中率,关键在于使数据起始地址对齐缓存行边界(如64字节),避免跨行访问导致的额外延迟。C++中可通过alignas、编译器扩展(如__attribute__((aligned)))、调整结构体成员顺序及C++17对齐new实现。合理设计数据结构可优化访问模…

    2025年12月18日
    000
  • C++如何使用unique_ptr管理动态分配对象

    unique_ptr通过独占所有权和RAII原则自动管理内存,防止泄漏;它不可复制,只能通过std::move转移所有权,确保同一时间仅一个指针管理对象,提升异常安全性和代码清晰度。 unique_ptr 在C++中提供了一种强大的机制来管理动态分配的对象,它确保了独占所有权,并在其生命周期结束时自…

    2025年12月18日
    000
  • C++如何捕获标准库算法抛出的异常

    标准库算法本身不抛异常,但用户自定义函数或内存分配失败可能引发异常,需用try-catch捕获;例如bad_compare抛出invalid_argument,应优先捕获具体异常类型以确保程序健壮性。 标准库算法通常不会主动抛出异常,但它们在执行过程中可能间接引发异常,比如用户自定义的比较函数、谓词…

    2025年12月18日
    000
  • C++如何使用std::string_view提高字符串处理效率

    std::string_view通过不拥有字符串数据、仅引用现有字符序列来避免内存分配和数据拷贝,提升性能。它在作为只读函数参数、解析文本、处理日志和协议时优势显著,尤其适合频繁子串提取和高效传递字符串片段的场景。其轻量结构(指针+长度)相比std::string减少堆操作,相比const char…

    2025年12月18日
    000

发表回复

登录后才能评论
关注微信