面试题答案
一键面试优化思路
- 减少锁的粒度:
- 思路:对共享资源进行更细粒度的划分,每个小部分使用单独的锁。这样不同线程可以同时访问不同部分的共享资源,而不是对整个共享资源加锁,从而提高并发度。例如,在一个多线程操作的链表中,如果链表很大,可以将链表分为几个部分,每个部分有自己的锁。
- 示例:
// 假设链表节点结构
typedef struct Node {
int data;
struct Node* next;
} Node;
// 定义多个锁,假设分为4个部分
pthread_mutex_t locks[4];
// 初始化锁
for (int i = 0; i < 4; i++) {
pthread_mutex_init(&locks[i], NULL);
}
// 插入节点函数
void insert_node(Node** head, int value) {
int part = value % 4; // 根据数据值选择锁
pthread_mutex_lock(&locks[part]);
Node* new_node = (Node*)malloc(sizeof(Node));
new_node->data = value;
new_node->next = *head;
*head = new_node;
pthread_mutex_unlock(&locks[part]);
}
- 使用读写锁:
- 思路:如果共享资源读操作远多于写操作,可以使用读写锁。读操作时允许多个线程同时进行,只有写操作时才需要独占锁。这样可以提高读操作的并发度。例如,在一个多线程读取配置文件数据的场景中,配置文件更新频率低,读取频率高。
- 示例:
// 定义读写锁
pthread_rwlock_t rwlock;
// 初始化读写锁
pthread_rwlock_init(&rwlock, NULL);
// 读操作函数
void read_data() {
pthread_rwlock_rdlock(&rwlock);
// 执行读操作
pthread_rwlock_unlock(&rwlock);
}
// 写操作函数
void write_data() {
pthread_rwlock_wrlock(&rwlock);
// 执行写操作
pthread_rwlock_unlock(&rwlock);
}
- 使用无锁数据结构:
- 思路:采用无锁数据结构,如无锁队列、无锁链表等。这些数据结构通过原子操作实现,避免了传统锁带来的开销。例如,在网络服务器中,用于消息传递的队列可以使用无锁队列。
- 示例:以无锁队列为例,使用
__sync_fetch_and_add
等原子操作实现简单的无锁队列(简化示例,实际应用可能更复杂)。
// 无锁队列结构
typedef struct {
int data[100];
volatile int head;
volatile int tail;
} LockFreeQueue;
// 初始化无锁队列
void init_queue(LockFreeQueue* queue) {
queue->head = 0;
queue->tail = 0;
}
// 入队操作
void enqueue(LockFreeQueue* queue, int value) {
int tail = __sync_fetch_and_add(&queue->tail, 1);
queue->data[tail] = value;
}
// 出队操作
int dequeue(LockFreeQueue* queue) {
int head = __sync_fetch_and_add(&queue->head, 1);
return queue->data[head];
}
- 优化锁的获取和释放顺序:
- 思路:确保所有线程以相同顺序获取和释放锁,避免死锁。同时,尽量减少在持有锁期间的操作,将耗时操作移到锁外执行。例如,在一个多线程处理用户请求的场景中,在获取锁前先进行一些请求合法性检查等不涉及共享资源的操作。
- 示例:
// 假设两个锁
pthread_mutex_t lock1, lock2;
// 线程函数
void* thread_function(void* arg) {
// 先检查请求合法性等操作
if (!is_request_valid()) {
return NULL;
}
pthread_mutex_lock(&lock1);
pthread_mutex_lock(&lock2);
// 处理共享资源操作
pthread_mutex_unlock(&lock2);
pthread_mutex_unlock(&lock1);
return NULL;
}
总结
通过以上几种方式,可以从不同角度优化多线程网络服务器中因线程同步机制导致的性能瓶颈,在实际应用中,需要根据具体的业务场景和性能测试结果选择合适的优化方法。