博客封面

✨✨所属专栏:Linux✨✨

✨✨作者主页:嶔某✨✨

Linux:线程同步与互斥

线程互斥

我们先明确几个概念

  1. 临界资源:多线程执行流共享的资源,一个进程中所有线程都要访问的资源
  2. 临界区:每个线程内部,访问临界资源的代码
  3. 互斥:任何时候,互斥保证有且只有一个线程进入临界区执行访问临界资源的代码,对临界资源起保护作用
  4. 原子性:不会被任何调度机制打断的操作,只有两种状态,要么完成了,要么没完成,不存在完成中、正在完成的状态

互斥量mutex

大部分情况,线程使用的数据都是局部变量,变量的地址都在线程地址空间内,变量归属单个线程,其他线程无法获得这种变量

但有些变量需要在线程间共享,称为共享变量,通过共享变量,完成线程间的交互

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
#include "mutex.hpp"
#include <pthread.h>
#include <unistd.h>

int ticket = 10000;

void *routine(void *args)
{
Mutex *m = static_cast<Mutex *>(args);
while (true)
{
// m->Lock();
if (ticket > 0)
{
usleep(100);
std::cout << "抢票一次" << std::endl;
ticket--;
std::cout << "剩余票数:" << ticket << std::endl;
// m->UnLock();
}
else
{
// m->UnLock();
break;
}
}
return nullptr;
}

int main()
{
Mutex mutex;

pthread_t t1;
pthread_create(&t1, nullptr, routine, (void *)&mutex);
pthread_t t2;
pthread_create(&t2, nullptr, routine, (void *)&mutex);
pthread_t t3;
pthread_create(&t3, nullptr, routine, (void *)&mutex);
pthread_t t4;
pthread_create(&t4, nullptr, routine, (void *)&mutex);

while (true)
{
pthread_join(t1, nullptr);
pthread_join(t2, nullptr);
pthread_join(t3, nullptr);
pthread_join(t4, nullptr);
}

return 0;
}

注意:mutex.h头文件是提前封装好的

上面的代码,在没有加锁的情况下,会出现票售多了的情况。

if语句判断条件为真后,代码可以并发的切换到其他线程,usleep就是在模拟这个漫长的业务,此时票数还没有减减,另外可能又有几个线程就又售出了多张票

而且tick–本身就不是一个原子操作,我们认为,一条汇编代码是原子的

1
2
3
4
5
取出ticket--部分的汇编代码
objdump -d a.out > test.objdump
152 40064b: 8b 05 e3 04 20 00 mov 0x2004e3(%rip),%eax #600b34 <ticket>
153 400651: 83 e8 01 sub $0x1,%eax
154 400654: 89 05 da 04 20 00 mov %eax,0x2004da(%rip) #600b34 <ticket>

--操作并不是原子的,对应了三条汇编指令

要解决以上问题,需要三点

OK,这时候就需要锁出场了。Linux中把这种锁叫做互斥量(互斥锁)

image-20250510171855995

互斥量的接口

初始化互斥量

静态分配

1
pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER

动态分配

1
2
3
4
int pthread_mutex_init(pthread_mutex_t *restrict mutex, const pthread_mutexattr_t *restrict attr);
参数:
mutex:要初始化的互斥量
attr:NULL

销毁互斥量

注意:

使用PTHREAD_MUTEX_INITIALIZER不需要销毁

不要销毁一个已经加锁的互斥量(该互斥锁已经有线程在使用中了)

已经销毁的互斥量,要确保后面不会有线程再次尝试加锁

1
int pthread_mutex_destroy(pthread_mutex_t *mutex);

互斥量加锁和解锁

1
2
3
int pthread_mutex_lock(pthread_mutex_t *mutex);
int pthread_mutex_unlock(pthread_mutex_t *mutex);
返回值:成功返回0,失败返回错误号

调用pthread_mutex_lock时可能会遇到以下情况:

互斥量处于未锁状态,该函数会将互斥量锁定,同时返回0

发起函数调用时,其他线程已经锁定互斥量,或者存在其他线程同时申请互斥量,但没有竞争到互斥量,那么pthread_mutex_lock调用会陷入阻塞(执行流被挂起)等待互斥量解锁后重新申请

互斥量实现原理

现在我们知道,i++++i这种操作都不是原子的,会有数据一致性的问题。

为了实现互斥锁操作,大多数体系结构都提供了swap或者exchange指令,该指令的作用是把寄存器和内存单元的数据相交换,由于只有一条汇编指令,保证了原子性,即使是在多处理器平台上,访问内存的总线周期也有前后之分,一个处理器上的交换指令执行时另一个处理器的交换指令只能等待总线周期。现在我们把lockunlock的伪代码改一下

1
2
3
4
5
6
7
8
9
10
11
12
lock:
movb $0, %al
echgb %al, mutex
if(al寄存器内容 > 0) {
return 0;
} else
挂起等待;
goto lock;
unlock:
movb $1, mutex
唤醒等待Mutex的线程;
return 0;

互斥量的封装

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
// mutex.hpp
#pragma once
#include <iostream>
#include <unistd.h>
#include <pthread.h>
#include <mutex>

class Mutex
{
public:
// 还可以删除不需要的拷贝构造和赋值重载
Mutex()
{
pthread_mutex_init(&_mutex, nullptr);
}
void Lock()
{
pthread_mutex_lock(&_mutex);
}
void UnLock()
{
pthread_mutex_unlock(&_mutex);
}
pthread_mutex_t *Get() // 得到原始指针
{
return &_mutex;
}
~Mutex()
{
pthread_mutex_destroy(&_mutex);
}

private:
pthread_mutex_t _mutex;
};

// RAII风格,进行锁管理
class global_mutex
{
public:
global_mutex(Mutex &mutex)
: _mutex(mutex)
{
_mutex.Lock();
}
~global_mutex()
{
_mutex.UnLock();
}
private:
Mutex &_mutex;
};

注意:带有pthread.h的源码编译时要链接pthread

1
2
3
// 这里我们所做的封装是模仿`C++11`的
std::mutex mtx;
std::lock_guard<std::mutex> guard(mtx);

线程同步

条件变量

当一个线程互斥地访问一个变量时,它必须要等到其他线程先把该变量修改之后才访问,那这个时候这个线程在其他线程访问之前什么也做不了。

例如在一个线程访问队列时,发现队列为空,因为没有其他线程往队列里塞数据,只能等待,等到队列里被其他线程塞了数据之后它才访问队列,这种情况就需要访问队列的线程在条件变量下等待,在其他线程塞完数据后通知该线程,然后该线程被唤醒,访问队列。

同步概念与竞态条件

同步Synchronization:在保证数据安全的前提下,让线程能够按照某种特定的顺序访问临界资源,从而有效避免饥饿问题

竞态条件Race Condition:是多线程或多进程编程中因并发执行导致的一种错误,当多个线程或进程同时访问和操作共享资源,且最终结果依赖于执行时序时,就会出现竞态条件。

条件变量函数

初始化

1
2
3
4
int pthread_cond_init(pthread_cond_t *restrict cond, const pthread_condattr_t *restrict attr);
参数:
cond:要初始化的条件变量
attr:NULL

销毁

1
int pthread_cond_destroy(pthread_cond_t * cond)

等待条件满足

1
2
3
4
int pthread_cond_wait(pthread_cond_t *restrict cond, pthread_mutex_t *restrict mutex);
参数:
cond:要在这个条件变量上等待
mutex:互斥量,等待时释放锁

唤醒等待

1
2
int pthread_cond_broadcast(pthread_cond_t *cond);
int pthread_cond_signal(pthread_cond_t *cond);

生产消费者模型

321原则:三种关系,两种角色,一个交易场所

生产消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,通过中间的容器(如阻塞队列,循环队列)来通讯,所以生产者盛产完的数据不用等消费者处理,直接扔给容器,消费者也不找生产者要数据而是直接从容器里面取,这个容器就相当于一个缓冲区,平衡了生产者和消费者的处理能力,做到忙闲不均。中间的容器就是来对生产者和消费者做解耦的。

生产者消费者模型的优点在于将生产者和消费者解耦并且支持多线程并发访问,支持忙闲不均,而且消费者在拿到数据释放锁后在处理这个数据的时候,生产者也可以往容器里面生产数据。

image-20250512222052030

基于阻塞队列的生产消费模型

阻塞队列BlockingQueue:在多线程编程中,阻塞队列这种数据结构在实现生产者消费者模型中很常用。它与普通的队列区别在于,当队列为空时,从队列里面获取元素的操作会被阻塞,直到队列里被放的数据;当队列满时,往队列里放元素的操作也会被阻塞,直到有元素从队列中被取出。

image-20250512222748368

C++ queue模拟阻塞队列的生产消费模型

我们用的条件变量是经过封装之后的:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
// cond.hpp
#pragma once
#include <iostream>
#include <pthread.h>
#include "mutex.hpp"

class Cond
{
public:
Cond()
{
pthread_cond_init(&_cond, nullptr);
}
void Wait(Mutex &mutex)
{
pthread_cond_wait(&_cond, mutex.Get());
}
void Signal()
{
pthread_cond_signal(&_cond);
}
~Cond()
{
pthread_cond_destroy(&_cond);
}

private:
pthread_cond_t _cond;
};

封装时不必将之前封装的Mutex引入成员变量,要将这两个模块解耦。MutexCond基本上是一起创建的,将创建的Mutex传入Cond里面即可。这样可以让Cond更加具有通用性,可以传入其他类型的锁

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
// BlockQueue.hpp
#pragma once
#include "cond.hpp"
#include "mutex.hpp"
#include "thread.hpp"
#include <queue>
#include <iostream>

const int defaultnum = 10; // 默认队列长度

template <class T>
class BlockQueue
{
private:
bool IsFull()
{
return _q.size() == _cap;
}
bool IsEmpty()
{
return _q.empty();
}

public:
BlockQueue(int cap = defaultnum)
: _cap(cap),
_psleep(0),
_csleep(0)
{
}
void Equeue(const T &in) // 生产者调用,往队列里面生产东西
{
{
global_mutex gmutex(_mutex);
while (IsFull()) // 如果队列里为满,那就让线程一直在条件变量下等待
{
_psleep++;
std::cout << "生产者进入等待" << std::endl;
Pcond.Wait(_mutex);
_psleep--;
}
// 队列有空位置
_q.push(in);
std::cout << "入队列" << std::endl;
if (_csleep > 0) // 通知消费者来消费
{
std::cout << "通知消费者来消费" << std::endl;
Ccond.Signal();
}
}
}
T Pop() // 消费者调用
{
T out;
{
global_mutex gmutex(_mutex); // 利用类内的锁创建可以自动解锁的锁
while (IsEmpty()) // 如果队列里为空,那就让线程一直在条件变量下等待
{
_csleep++;
std::cout << "消费者进入等待" << std::endl;
Ccond.Wait(_mutex);
_csleep--;
}
out = _q.front();
_q.pop();
std::cout << "出队列" << std::endl;

if (_psleep > 0) // 通知生产者去生产
{
std::cout << "通知生产者去生产" << std::endl;
Pcond.Signal();
}
}
return out;
}
~BlockQueue()
{
}

private:
std::queue<T> _q; // 可以用vector代替,都看心情~
int _cap; // 队列容量

Mutex _mutex; // 为了维护p与c,p与p,c与c之间的互斥关系
Cond Pcond; // 维护p与p之间的同步
Cond Ccond; // 维护c与c之间的同步

int _psleep; // 生产者休眠数
int _csleep; // 消费者休眠数
};

为什么pthread_cond_wait需要互斥量

在使用条件变量(Condition Variable)时,wait()signal() 操作必须在锁的保护下进行,这是由条件变量的核心设计目标决定的 ——安全地等待和通知共享状态的变化。以下是详细解释:

  1. wait () 为什么要加锁?

(1)原子性释放锁并进入等待状态

(2)保护共享状态的可见性

  1. signal ()为什么要加锁?

(1)确保通知操作的原子性

(2)与 wait () 的锁保持一致

关键点:

条件变量使用规范

等待条件代码:

1
2
3
4
5
pthread_mutex_lock(&mutex);
while(条件为假)
pthread_cond_wait(cond, &mutex);
修改条件
pthread_mutex_unlock(&mutex);

给条件发送信号代码:

1
2
3
4
pthread_mutex_lock(&mutex);
将条件变为真
pthread_cond_signal(cond);
pthread_mutex_unlock(&mutex);

POSIX信号量

POSIX信号量和SystemV信号量作用相同,用于同步操作,达到无冲突的访问共享资源的目的。但POSIX可以用于线程间同步。

初始化信号量

1
2
3
4
5
#include <semaphore.h>
int sem_init(sem_t *sem, int pshared, usigned int value);
参数:
pshared:0表示线程间共享,非零表示进程间共享
value:信号量初始值

销毁信号量

1
int sem_destroy(sem_t *sem);

等待信号量

1
2
功能:等待信号量,会将信号量的值减一
int sem_wait(sem_t *sem); // P操作

发布信号量

1
2
功能:发布信号量,表示资源使用完毕,可以归还资源了。将信号量加一
int sem_post(sem_t *sem); // V操作

基于环形队列的生产消费者模型

image-20250518201422072

环形结构的起始状态和结束状态都是一样的,不好判断为空,为满,所以可以通过加计数器或者标记位来判断满或者空。另外也可以预留一个空的位置,tail == head为空 tail + 1 == head为满

现在我们可以用信号量,可以让生产者和消费者同时访问循环队列的不同位置,其本质就是一个计数器,实现多线程间同步,

封装信号量

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#pragma once

#include <semaphore.h>

const int defalut = 1;
class Sem
{
public:
Sem(unsigned int sem_value = defalut)
{
sem_init(&_sem, 0, sem_value); // 第二个参数为零则在线程间共享,第三个参数指定信号量的初始值
}
void P() // P(Proberen)操作 对信号量计数器--,申请资源
{
sem_wait(&_sem); // 本身是原子的
}
void V() // V(Verhogen)操作 对信号量计数器++,释放资源
{
sem_post(&_sem); // 本身是原子的
}
~Sem()
{
sem_destroy(&_sem);
}
private:
sem_t _sem;
};

需要注意的是对于生产者的资源就是空位置,对于消费者资源就是有资源的位置个数。另外为了支持多生产多消费,除了要靠信号量维持生产者和消费者之间的同步关系,还需要维持c与c之间和p与p之间的互斥关系,所以要再加两把锁。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
#pragma once
#include "sem.hpp"
#include "mutex.hpp"
#include <vector>
#include <iostream>

const int default_len = 5; // 默认循环队列长度

template <class T>
class RingQueue
{
public:
RingQueue(int len = default_len)
: _rq(len),
_cap(len),
_c_step(0),
_data_sem(0),
_p_step(0),
_blank_sem(_cap)
{
}
void Equeue(T &in) // 生产者调用
{
_blank_sem.P(); // 申请资源
{
global_mutex glock(_p_lock); // 可以先让一批线程竞争信号量,再来竞争锁,后来的线程,就挂在信号量上
_rq[_p_step] = in;
_p_step++;
_p_step %= _cap;
}
_data_sem.V(); // 对消费者资源++;
}
T Pop() // 消费者调用
{
T data;
_data_sem.P(); // 申请资源
{
global_mutex glock(_c_lock);
data = _rq[_c_step];
_c_step++;
_c_step %= _cap;
}
_blank_sem.V(); // 对生产者资源++
return data;
}
~RingQueue()
{
}

private:
std::vector<T> _rq; // 用vector来模拟循环队列
int _cap; // 标记长度,用来模等,维持循环属性

int _c_step; // 消费者位置
Sem _data_sem; // 记录对于消费者来说的资源,也就是有数据的位置数

int _p_step; // 生产者位置
Sem _blank_sem; // 记录对于生产者来说的资源,也就是空位置数

// 为了支持多生产多消费,需要再加两把锁维持p与p,v与v之间的互斥关系
Mutex _c_lock;
Mutex _p_lock;
};

线程池

池化技术就是提前把需要用到的资源先申请到,放在一个数据结构里面管理起来(池子),在需要用到的时候拿出来用,不用了就放回池子里。这里的线程池,之前的进程池,项目中的高并发内存池,都是池化技术的体现。

日志与策略模式

计算机大佬们把一些常见的问题的解决方法归纳起来,总结成了各种解决方案,这就是设计模式。在接下来的简单日志系统中我们会用到策略模式

日志需要包含这几个元素:时间戳 日志等级 进程id 线程id 文件名 行号 日志内容 ,支持可变参数

1
2
3
4
[2025-05-05 23:45:25][DEBUG][2568001][Http.hpp][40]-_method: GET
[2025-05-05 23:45:25][DEBUG][2568001][Http.hpp][41]-_uri: ./wwwroot/index.html
[2025-05-05 23:45:25][DEBUG][2568001][Http.hpp][42]-_http_version: HTTP/1.1
[2025-05-05 23:45:25][INFO][2568001][Http.hpp][197]-client: 39.144.218.179 : 2466

虽然有现成的方案 spdlog、glog、Boostlog、Log4cxx等,但是我们总得自己知道这个车是怎么跑起来的,所以我们还是要造一个轮子。

日志系统源码:https://github.com/QinMou000/Code/tree/master/25/Log

总结:

  1. 这里我们用到的锁是自己之前封装好的,C++11中也给我们封装好了std::lock_guard<std::mutex> lock(_mutex);
  2. 首先我们定义一个基类,作为刷新策略的基类,之后再创建两个派生类,分别实现往显示屏和文件里面刷新日志的功能SyncLog,显然这个部分会需要用到互斥锁。
  3. 然后是一个logger类,里面包含一个我们之前定义的基类指针,我们通过改变这个指针的指向来改变日志的刷新策略。
  4. logger类里定义一个内部类LogMessege这个类用来生成一条完成的日志信息,由于要支持可变参数,所以在类里面需要我们实现一个operator<<运算符重载函数。
  5. 我们用Logger类先定义一个全局对象,我们用这个全局对象中的operator()重载函数进行日志调用,这个重载函数里面是构造了一个临时内部类对象并进行返回,在进行返回的时候会自动调用析构函数,内部类里面包含了一个logger引用,我们会在operator()中的参数传进去Loggerthis指针,所以我们将这个内部类的析构函数就设计为根据logger引用的刷新策略来进行刷新。
  6. 我们的日志调用方法时通过一个宏来调用,这个宏里面就是一个operator()重载,我们只需要传日志等级和后面加上日志内容就行,文件名和行号用系统自带的宏。我们在设计一个获取时间戳的函数。改变日志刷新策略也是通过宏来调用log全局对象Logger类里面的函数

_- visual selection

线程池设计

线程过多会带来调度开销,进而影响缓存局部性和整体性能。而线程池维护着多个线程,等待着监督管理者分配可并发执行的任务。这**避免了在处理短时间任务时创建与销毁线程的代价。**线程池不仅能够保证内核的充分利用,还能防止过分调度。可用线程数量应该取决于可用的并发处理器、处理器内核、内存、网络socket等的数量。

应用场景:

线程池的种类

  1. 创建固定数量线程池,循环从任务队列中获取任务对象,获取到任务对象后,执行任务对象中的任务接口
  2. 浮动线程池,除了线程数量不固定,其他同上

这里我们选择固定线程个数的线程池

image-20250527224732298

线程池源码:https://github.com/QinMou000/Code/tree/master/25/ThreadPool

总结:

线程安全的单例模式

用一个洗碗的例子来形象的解释饿汉和懒汉

饿汉方式和懒汉方式实现单例

饿汉

1
2
3
4
5
6
7
8
template <typename T>
class Singleton {
static T data; // 类中本来就有这样一个数据,你要直接给你
public: // 只要通过Singleton这个包装类来使用T对象,则一个进程中只有一个T对象实例
static T* GetInstance() {
return &data;
}
};

懒汉

1
2
3
4
5
6
7
8
9
10
11
template <typename T>
class Singleton {
static T* inst; // 类中只有这个类类型的指针,在你需要的时候再去new
public:
static T* GetInstance() {
if (inst == NULL) {
inst = new T();
}
return inst;
}
};

这样的方式明显存在线程安全问题,第一次调用GetInstance时,如果两个线程同时调用,可能会new出两个T对象实例,所以需要锁

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
// 懒汉模式, 线程安全
template <typename T>
class Singleton {
volatile static T* inst; // 需要设置 volatile 关键字, 否则可能被编译器优化
static std::mutex lock;
public:
static T* GetInstance() {
if (inst == NULL) { // 双重判定空指针, 降低锁冲突的概率, 提高性能
lock.lock(); // 使用互斥锁, 保证多线程情况下也只调用一次 new
if (inst == NULL) {
inst = new T();
}
lock.unlock();
}
return inst;
}
};

线程安全和重入问题

概念

线程安全:就是多个线程在访问共享资源时能够正确的执行,不会相互干扰或破环彼此的执行结果。一般而言,多个线程并发同一段只有局部变量的代码时,不会出现不同的结果。但是对全局变量或者静态变量进行操作,并且没有锁保护的情况下,容易出现该问题

重入:同一个函数被不同的执行流调用,当前执行流还没有执行完,就有了其他执行流再次进入,称为重入。一个函数在重入的情况下,运行结果不会出现任何不同或者问题,称该函数为可重入函数,否则称为不可重入问题。

根据现在我们的理解将重入分为两种情况

  1. 多线程重入
  2. 当程序执行时,若收到一个信号(如键盘中断SIGINT),系统会暂停当前执行流,转而执行信号处理函数。如果信号处理函数中调用了当前正在执行的函数,就会导致信号重入(同一执行流被中断后再次进入同一函数)。

常见线程不安全的情况

常见不可重入的情况

函数是可重入的,那就是线程安全的; 如果函数是线程安全的,不一定是可重入的。

常见锁概念

死锁

死锁是指在一组进程中的各个进程均占有不会释放的资源,但因互相申请被其他进程占用不会释放的资源而处于的一种永久的等待状态

方便描述,假设线程A,线程B必须同时持有锁1和锁2才能访问后续资源

申请一把锁是原子的,但是同时申请两把锁就有可能,A线程申请了锁1,B线程申请了锁2,他们谁也不让着谁,就造成了死锁

死锁的四个必要条件

避免死锁

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
#include <iostream>
#include <mutex>
#include <thread>
#include <vector>
#include <unistd.h>
// 定义两个共享资源(整数变量)和两个互斥锁
int shared_resource1 = 0;
int shared_resource2 = 0;
std::mutex mtx1, mtx2;
// ⼀个函数,同时访问两个共享资源
void access_shared_resources()
{
// std::unique_lock<std::mutex> lock1(mtx1, std::defer_lock);
// std::unique_lock<std::mutex> lock2(mtx2, std::defer_lock);
// // 使用 std::lock 同时锁定两个互斥锁
// std::lock(lock1, lock2);
// 现在两个互斥锁都已锁定,可以安全地访问共享资源
int cnt = 10000;
while (cnt)
{
++shared_resource1;
++shared_resource2;
cnt--;
}
// 当离开 access_shared_resources 的作⽤域时,lock1 和 lock2 的析构函数会被自动调用
// 这会导致它们各⾃的互斥量被⾃动解锁
}
// 模拟多线程同时访问共享资源的场景
void simulate_concurrent_access()
{
std::vector<std::thread> threads;
// 创建多个线程来模拟并发访问
for (int i = 0; i < 10; ++i)
{
threads.emplace_back(access_shared_resources);
}
// 等待所有线程完成
for (auto &thread : threads)
{
thread.join();
}
// 输出共享资源的最终状态
std::cout << "Shared Resource 1: " << shared_resource1 << std::endl;
std::cout << "Shared Resource 2: " << shared_resource2 << std::endl;
}
int main()
{
simulate_concurrent_access();
return 0;
}

std::defer_lock 表示创建锁对象时不立即加锁。

std::lock(lock1, lock2) 以原子方式同时锁定多个锁,避免死锁。

1
2
3
$ ./a.out // 不⼀次申请
Shared Resource 1: 94416
Shared Resource 2: 94536
1
2
3
$ ./a.out // ⼀次申请
Shared Resource 1: 100000
Shared Resource 2: 100000

STL、智能指针的线程安全

STL中的容器不是线程安全的,因为STL设计初衷是将性能发挥到极致

unique_ptr由于只在当前代码块范围内生效,所以不涉及线程安全问题

shared_ptr多个对象需要共用一个引用计数,所以是存在线程安全问题的,这个在设计shared_ptr的时候也考虑到了,基于原子操作CAS的方式保证了shared_ptr能够高效、原子的操作引用计数

  1. 原子操作:使用 std::atomic 确保引用计数的增减操作是原子的。
  2. 控制块唯一性:通过 std::call_once 或等价机制确保同一对象的所有 shared_ptr 共用同一个控制块。
  3. 安全的共享接口:提供 std::enable_shared_from_this 确保对象能安全获取自身的 shared_ptr