分布式一致性问题:#
分布式的CAP理论告诉我们“任何一个分布式系统都无法同时满足一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance),最多只能同时满足两项。”所以,很多系统在设计之初就要对这三者做出取舍。在互联网领域的绝大多数的场景中,都需要牺牲强一致性来换取系统的高可用性,系统往往只需要保证“最终一致性”,只要这个最终时间是在用户可以接受的范围内即可
在很多场景中,我们为了保证数据的最终一致性,需要很多的技术方案来支持,比如分布式事务
、分布式锁
等。有的时候,我们需要保证一个方法在同一时间内只能被同一个线程执行
分布式锁:#
是在分布式系统之间同步访问共享资源的一种方式。
不同的系统或者同一个系统不同的主机共享了一个或一组资源,那么访问这些资源的时候,往往需要互斥来防止彼此干扰,从而保证数据的一致性,怎么保证数据的一致性,就用到了分布式锁
那么用锁来解决资源抢占时,又有哪些问题:#
1、死锁#
死锁是在并发编程中理论上都会出现的问题
什么是死锁:
抢占资源的各方,彼此都在等待对方释放资源,以便自己能获取系统资源,但是没有哪一方退出,这时候就死锁了
产生死锁的4个条件:
- 互斥条件
- 不可抢占条件
- 占用并申请条件
- 循环等待条件
解决方法:
解决死锁的问题只要解决了上面的4个条件之一即可。那怎么解决呢?
一般用 session + TTL 打破循环等待条件
当一个客户端尝试操作一把分布式锁的时候,我们必须校验其 session 是否为锁的拥有者,不是则无法进行操作。
当一个客户端已经持有一把分布式锁后,发生了掉线,在超出了 TTL** 时间后无法连接上,则回收其锁的拥有权。
2、惊群效应#
什么是惊群效应?
简单说来,多线程/多进程等待同一个socket事件,当这个事件发生时,这些线程/进程被同时唤醒,就是惊群。可以想见,效率很低下,许多进程被内核重新调度唤醒,同时去响应这一个事件,当然只有一个进程能处理事件成功,其他的进程在处理该事件失败后重新休眠(也有其他选择)。这种性能浪费现象就是惊群。
为了更好的理解何为惊群,举一个很简单的例子,当你往一群鸽子中间扔一粒谷子,所有的各自都被惊动前来抢夺这粒食物,但是最终注定只可能有一个鸽子满意的抢到食物,没有抢到的鸽子只好回去继续睡觉,等待下一粒谷子的到来。这里鸽子表示进程(线程),那粒谷子就是等待处理的事件
解决方法:
为了避免发生惊群效应, Nginx 和 ZooKeeper 分别使用了不同的方案解决,但是他们的核心解决思路都是一致的,
下面我们来看看 ZooKeeper 是怎么解决 惊群效应 的。
我们都知道,在 ZooKeeper 内部会使用临时目录节点的形式创建分布式锁,其中每个节点对应一个客户端的申请锁请求。
当客户端来请求该锁的时候, ZooKeeper 会生成一个
${lock-name}-${i}
的临时目录,此后每次请求该锁的时候,就会生成${lock-name}-${i+1}
的目录,如果此时在${lock-name}
中拥有最小的i
的客户端会获得该锁,而该客户端使用结束之后,就会删除掉自己的临时目录,并通知后续节点进行锁的获取。
没错,这个 i
是 ZooKeeper 解决惊群效应的利器,它被称为 顺序节点
Nginx怎么解决惊群
Nginx中处理epoll惊群问题的思路很简单,多个子进程有一个锁,谁拿到锁,谁才将accept的fd加入到epoll队列中,其他的子进程拿不到锁,也就不会将fd加入到epoll中,连接到来也就不会导致所有子进程的epoll被唤醒返回
3、脑裂(brain-split)#
什么是脑裂?
脑裂主要是仲裁之间网络中断或不稳定导致
当集群中出现 脑裂 的时候,往往会出现多个 master 的情况,这样数据的一致性会无法得到保障,从而导致整个服务无法正常运行
解决方法:
- 可以将集群中的服务作为 P2P 节点,避免 Leader 与 Salve 的切换
- 向客户端发起重试,如果一段时间后依然无法连接上,再让下一个顺序客户端获取锁
consul怎么解决上面3个问题#
Consul 是 Go 实现的一个轻量级 服务发现 、KV存储 的工具,它通过强一致性的KV存储实现了简易的 分布式锁 ,下面我们根据源码看下 Consul 是怎么解决以上分布式锁的难点的
// api/lock.go // Lock 分布式锁数据结构 type Lock struct { c *Client // 提供访问consul的API客户端 opts *LockOptions // 分布式锁的可选项 isHeld bool // 该锁当前是否已经被持有 sessionRenew chan struct{} // 通知锁持有者需要更新session locksession string // 锁持有者的session l sync.Mutex // 锁变量的互斥锁 } // LockOptions 提供分布式锁的可选项参数 type LockOptions struct { Key string // 锁的 Key,必填项,且必须有 KV 的写权限 Value []byte // 锁的内容,以下皆为选填项 Session string // 锁的session,用于判断锁是否被创建 SessionOpt *SessionEntry // 自定义创建session条目,用于创建session,避免惊群 SessionName string // 自定义锁的session名称,默认为 "Consul API Lock" SessionTTL string // 自定义锁的TTL时间,默认为 "15s" MonitorRetries int // 自定义监控的重试次数,避免脑裂问题 MonitorRetryTime time.Duration // 自定义监控的重试时长,避免脑裂问题 LockWaitTime time.Duration // 自定义锁的等待市场,避免死锁问题 LockTryOnce bool // 是否只重试一次,默认为false,则为无限重试 }
惊群#
SessionOpt *SessionEntry // 自定义创建session条目,用于创建session,避免惊群
死锁#
LockWaitTime time.Duration // 自定义锁的等待市场,避免死锁问题
脑裂#
MonitorRetries int // 自定义监控的重试次数,避免脑裂问题
MonitorRetryTime time.Duration // 自定义监控的重试时长,避免脑裂问题
LockTryOnce bool // 是否只重试一次,默认为false,则为无限重试
从 LockOptions
中带有 session / TTL / monitor / wait 等字眼的成员变量可以看出,consul 已经考虑到解决我们上一节提到的三个难点,下面来看看实现代码中是如何使用的
先来看看生成可用的分布式锁的函数 LockOpts
:
// api/lock.go // LockOpts 通过传入锁的参数,返回一个可用的锁 // 必须注意的是 opts.Key 必须在 KV 中有写权限 func (c *Client) LockOpts(opts *LockOptions) (*Lock, error) { if opts.Key == "" { return nil, fmt.Errorf("missing key") } if opts.SessionName == "" { opts.SessionName = DefaultLockSessionName // "Consul API Lock" } if opts.SessionTTL == "" { opts.SessionTTL = DefaultLockSessionTTL // "15s" } else { if _, err := time.ParseDuration(opts.SessionTTL); err != nil { return nil, fmt.Errorf("invalid SessionTTL: %v", err) } } if opts.MonitorRetryTime == 0 { opts.MonitorRetryTime = DefaultMonitorRetryTime // 2 * time.Second } if opts.LockWaitTime == 0 { opts.LockWaitTime = DefaultLockWaitTime // 15 * time.Second } l := &Lock{ c: c, opts: opts, } return l, nil }
我们可以在这个函数中可以注意到:
- 15s 的 SessionTTL 用于解决死锁、脑裂问题。
- 2s 的 MonitorRetryTime 是一个长期运行的协程用于监听当前锁持有者,用于解决脑裂问题。
- 15s 的 LockWaitTime 用于设置尝试获取锁的超时时间,用于解决死锁问题。
Lock
有3个可供其他包访问的函数,分别为 Lock
/ Unlock
/ Destroy
,下面按照顺序展开细说
Lock()函数
// Lock尝试获取一个可用的锁,可以通过一个非空的 stopCh 来提前终止获取 // 如果返回的锁发生异常,则返回一个被关闭的 chan struct ,应用程序必须要处理该情况 func (l *Lock) Lock(stopCh <-chan struct) (<-chan struct{}, error) { // 先锁定本地互斥锁 l.l.Lock() defer l.l.Unlock() // 本地已经获取到分布式锁了 if l.isHeld { return nil, ErrLockHeld } // 检查是否需要创建session l.lockSession = l.opts.Session if l.lockSession == "" { s, err := l.createSession() if err != nil { return nil, fmt.Errorf("failed to create session: %v", err) } l.sessionRenew = make(chan struct{}) l.lockSession = s session := l.c.Session() go session.RenewPeriodic(l.opts.SessionTTL, s, nil, l.sessionRenew) // 如果我们无法锁定该分布式锁,清除本地session defer func() { if !l.isHeld { close(l.sessionRenew) l.sessionRenew = nil } }() // 准备向consul KV发送查询锁操作的参数 kv := l.c.KV() qOpts := &QueryOptions{ WaitTime: l.opts.LockWaitTime, } start := time.Now() attempts := 0 WAIT: // 判断是否需要退出锁争夺的循环 select { case <-stopCh: return nil, nil default: } // 处理只重试一次的逻辑 if l.opts.LockTryOnce && attempts > 0 { // 配置该锁只重试一次且已经重试至少一次了 elapsed := time.Since(start) // 获取当前时间偏移量 if elapsed > qOpts.WaitTime { // 当超过设置中的剩余等待时间 return nil, nil // 返回空结果 } qOpts.WaitTime -= elapsed // 重设剩余等待时间 } attempts++ // 已尝试次数自增1 // 阻塞查询该存在的分布式锁,直至无法获取成功 pair, meta, err := kv.Get(l.opts.Key, qOpts) if err != nil { return nil, fmt.Errorf("failed to read lock: %v", err) } } }
Unlock()函数
// Unlock 尝试释放 consul 分布式锁,如果发生异常则返回 error func (l *Lock) Unlock() error { // 在释放锁之前必须先把 Lock 结构锁住 l.l.Lock() defer l.l.Unlock() // 确认我们依然持有该锁 if !isHeld { return ErrLockNotHeld } // 提前先将锁的持有权释放 l.isHeld = false // 清除刷新 session 通道 if l.sessionRenew != nil { defer func() { close(l.sessionRenew) l.sessionRenew = nil }() } // 获取当前 session 持有的锁信息 lockEnt := l.lockEntry(l.lockSession) l.lockSession = "" kv := l.c.KV() _, _, err := kv.Release(lockEnt, nil) // 将持有的锁尝试释放 if err != nil { return fmt.Errorf("failed to release lock: %v", err) } return nil }
Destry()函数
// Destroy 尝试销毁分布式锁,虽然这不是必要的操作。 // 如果该锁正在被使用,则返回error func (l *Lock) Destroy() error { // 在释放锁之前必须先把 Lock 结构锁住 l.l.Lock() defer l.l.Unlock() // 确认我们依然持有该锁 if !isHeld { return ErrLockNotHeld } // 获取锁 kv := l.c.KV() pair, _, err := kv.Get(l.opts.Key, nil) if err != nil { return fmt.Errorf("failed to read lock: %v", err) } if pair == nil { return nil } // 检查是否有可能状态冲突 if pair.Flags != LockFlagValue { return ErrLockConflict } // 如果锁正在被持有,则返回异常 if pair.Session != "" { return ErrLockUse } // 尝试通过 CAS 删除分布式锁 didRemove, _, err := kv.DeleteCAS(pair, nil) if err != nil { return fmt.Errorf("failed to remove lock: %v", err) } if !didRemove { // 如果没有删除成功,则返回异常 return ErrLockInUse } return nil }
用golang实现的小demo#
package main import ( api "github.com/hashicorp/consul/api" "github.com/satori/go.uuid" "log" ) func main() { client, err := api.NewClient(&api.Config{ Address: "127.0.0.1:8500", }) lockKey := "demo-lock-key" lock, err := client.lockOpts(&api.LockOptions{ Key: lockKey, Value: []byte("sender 1"), SessionTTL: "10s", SessionOpts: &spi.SessionEntry{ Checks: []string{"check1", "check2"}, Behavior: "release", }, SessionName: uuid.Must(uuid.NewV4()), }) if err != nil { log.Fatalf("failed to created lock %v", err) } result, err := lock.Lock(nil) if err != nil { log.Fatalf("failed to accquired lock") } }