一 前言
关于软件的高可用,是一个老生常谈的话题。“高可用性”(High Availability)通常来描述一个系统经过专门的设计,从而减少停工时间,而保持其服务的高度可用性。其计算公式是:可用率=(总时间-不可用时间)/总时间。
本文重点从落地实践的视角作为切入点,带领大家从协作效率,技术落地和运营规范几个方面来展现高可用的实施步骤和落地细节。为了方便理解,先来统一语言话术,看一下软件交付过程中的各个阶段,如下图:
为什么说软件的高可用会面临着诸多挑战呢?
- 从需求交付链路来看,要完成目标交付,需要产品,研发,测试,运维,运营等多方利益相关者的密切配合。有些项目需求,合作者有时能够达到上百人,每个人职责分工各不相同,但却相互配合依赖,任何一个环节出现纰漏,可用率就有可能受到影响;
- 从时间角度来看,如果要达到全年99.99%的可用率,就意味着一年当中,允许有故障的时间为:365*24*60*(100%-99.99%)=52分钟,如果要达到5个9的可用率,允许故障的时间仅为5分钟,这差不多是我们发现问题后,重启应用的耗时;
- 从迭代效率来看,不迭代,不上线,问题出现的概率一定会小很多。软件的迭代效率和可用率之间存在着负相关的关系,平衡好两者之间的关系,也会面临着不小的挑战。
总结一下,我们具体面临的问题如下:
- 如何解决需求交付相关协作者多,链路长的问题?
- 如何应对故障时间容忍度低的问题?
- 如何在频繁需求迭代的现状下,保持可用率不受到大的冲击问题?
二 协作效率保障
认知误区
从整个需求交付链路我们可以发现,随着链路的逐级递增,信息的传递链路分支就会越多,传递层级就会越深。这会导致两个问题:
- 信息传递效率降低;
- 信息准确性变差。
这两个问题最终导致的结果,就是协作效率的降低。
一个没有实战经验的同学往往会认为增加人数,就会提高需求交付效率。其实这种想法不完全正确,具体关系参考下图:
这就像盖楼房,如果一个人按部就班的建设,需要100天完成。如果请了100个人来帮忙,能否用1天的时间完成房子建设呢?答案是否定的。
这里面有协作的成本,比如:团队默契(设计师,瓦工,泥工,水电工),岗位匹配,风险控制;
这里面有流程的依赖,比如:施工依赖于设计,软装总在硬装之后;
这里面有成本预算,比如:整个组织的人才梯度,规模大小(承建方,代理商,承包商);
以上这些,都不是简单的通过人力铺设来解决的。
流程规范
提高协作效率的底层逻辑是通过减少交付链路层级,缩短信息传递链路,进而保证信息的准确性和传递效率。(组织建设层面的内容这里不做展开)
这就要求具有今日事,今日毕的行动力。组织层面这叫流程规范,个人层面这叫做事方法,责任心。
尽量避免将当下的事情拖延到下一个环节,否则就会影响后续链路的排期计划和交付效率,极端情况甚至会出现返工的情形。简言之,考虑清楚,不埋坑。产品需求对研发,研发设计对测试,测试用例对产品等各个交付节点都是如此,交付物一定是靠谱的。
三 技术落地保障
在需求响应周期中,高质量的落实架构设计,编码实现,安全上线,部署运营等生产阶段,是软件高可用落地保障的前提和基础。
架构设计
架构设计往往影响着系统的前期实现成本(即ROI)和后续运维难度,属于软件的顶层设计,这里面既包含宏观的设计方案,也包含落地细节里的范式约束。
- 流程保障
邀请架构师参与:核心交易节点、重大需求改动邀请架构师参与,这是闭坑最直接有效的方式;
重视设计文档:方案描述清楚了,并取得相关利益者的认可,是走在正确道路上的前提。
- 设计保障
容灾设计:要预留后路,提前想清楚,做好容灾设计。可回滚,可熔断,可重试,可降级。
鲁棒性设计:无状态设计,防重设计,幂等设计,数据一致性设计
编码实现
如果说架构设计是骨架,那么编码实现就是神经,血管和肌肉。前者决定了能走多稳,走多久,后者决定着走多快,走多远。落实到编码层面,就是代码的衰老腐败程度。
- 流程规范
代码评审机制:代码评审不仅仅是发现系统中存在的问题这么简单。它是一种长期行为,是进行组织文化贯彻和传承的一种形式和载体。评审的过程中,明确了业务职责边界,设计与编码共识,优秀的标准导向等研发共识。相当于通过具象化的案例,给出针对性的指导,这些都是保证团队战斗力的基石。
研发过程中的很多问题,通过代码评审机制可以被发现和解决,比如:
- 如何对待临时需求的设计与实现?
- 如何看待“Hello World!”的N中写法?
- 如何理解设计模式和过度设计的边界?
- 如何评价当前阶段的交付物?
- 是否有必要引入单元测试?
- 编码规范
- 有没有对错误进行处理?对于调用的外部服务,是否检查了返回值或处理了异常?
- 设计是否遵从已知的设计模式或项目中常用的模式?
- 开发者新写的代码能否用已有的SDK/Framework中的功能实现?在本项目中是否存在类似的功能可以调用而不用全部重新实现?
- 工程中是否引入了无用的,功能重复的,不同版本的jar包依赖?(json类库,各种utils)
- 有没有无用的代码可以清除?
- 代码可读性如何?有没有足够的注释?
- 参数传递有无错误,有没有使用断言(Assert)或判断来保证我们认为不变的条件真的得到满足?
- 边界条件是如何处理的? switch语句的default分支是如何处理的?循环有没有可能出现死循环?
- 对资源的利用,是在哪里申请,在哪里释放的?有无可能存在资源泄漏(包括超时时间,内存、文件、对象引用,大对象,线程数等)?有没有优化的空间?
- 代码的效能如何?最坏的情况是怎样的?
- 代码中,特别是循环中是否有明显可优化的部分(string的操作是否能用StringBuilder来优化)?
- 对于系统和网络的调用是否会超时?如何处理?
- 代码是否易于测试(方法行数,圈复杂度,出入参定义是否合理)?
- 改动是否影响到旧版本、历史数据、上游能否兼容?
- 接口设计是否有考虑幂等、并发、越权,降级等问题?
- 是否存在缓存、数据库性能问题以及多数据源数据一致性的问题?
- 上线方案是否考虑了灰度方案,数据状态不一致问题?
安全上线
线上70%的故障都是由某种变更而触发的,其中相当一部分占比是不规范的上线引起的。所以安全上线这一环节至关重要。
- 流程规范
- 严禁频繁上线:比如,每周不大于2次;
- 严禁高峰期上线:降低问题影响范围;
- 严禁私自上线:有改动,必须通过测试验证,产品回归确认;
- 过程规范
- 摘流量:选择第一批机器jsf下线/np摘流量(选为冷备);
- 看日志:观察日志确认摘除机器无流量;
- 服务预热:确认机器启动成功,核心业务接口需要接口预热;
- 挂流量:挂载上线机器流量;
- 看指标:观察上线机器mdc指标是否异常(cpu、内存、负载)、日志是否有异常
部署运营
实现高可用的一个很重要的手段就是能力冗余。下面给出方向和思路,具体落地细节和策略,可以根据具体情况各自延展。
- 网络
- 运营商层面,联通,电信,移动等;
- 链路节点方面,VIP,CDN,路由器/交换机,反向代理,客户端,浏览器等;
- 存储
- 无论是数据库主从架构,还是ES的副本架构,都是实现存储高可用的手段,重要数据要利用好相关特性;
- 在进行数据结构设计时,同样也需要做好分流策略,容量规划,数据拆分或异构。比如:避免缓存热key,数据库表吞吐量瓶颈,数据库连接数限制等各种影响高可用的问题出现。
- 服务
- 横向扩容:服务要保证可以通过添加资源的方式进行能力扩容,这一点非常重要;
- 服务分组:按照业务方或使用场景,对服务进行不同粒度的隔离,防止极端情况导致服务相互影响;
- 极限策略:主要是一些极端异常情况下的防御策略,目的是意外发生后,尽量保持服务的可靠性。比如:限流,熔断,重试,快速失败等;
- 灰度策略:新功能上线,往往是最容易出现问题的时候,拥有成熟的流量灰度能力,是控制问题影响范围的关键;
四 运营规范保障
运营规范
- 可监控:系统运行状况
- 可报警:异常情况能够通知到系统相关人员
- 可定位:出现问题后,能够快速定位问题原因
- 可修复:出现异常情况,能够在第一时间进行问题修复;
应急预案
高可用意味着对故障时间的容忍性差,意味着没有时间进行故障排查和修复,更没有时间打开代码进行漏洞排查。这就要求我们有一套完备的应急预案,这套预案能够解决大部分可预见的故障问题。
- 流程规范
- 恢复生产第一;
- 排查问题第二;
详细事故应急处理手册,可以参照下图:
- 过程规范
- 网络,服务,存储分三个维度制定对应方案,并将应急预案清单(文件名:checklist)填写到自己的代码库中,保持内容传承和更新;
- 可预见性,即问题触发场景要写清楚。举例:按照当前进度(1万/天),随着数据库数据的增加,预计10个月后,数据库表(xxx表名)会出现慢查询;
- 可执行性,能够消除问题的解决方案。举例:启动历史数据归档任务(xxxWorker),将历史数据进行转移到归档数据库中;
规范达标
再好的流程和规范都需要有对应的机制来贯彻执行,否则就是镜中花,水中月,看着美好,实则没用。可执行,能度量,是按照目标变好的前提。所以这里给出一个《高可用达标定期自查表》的工具,辅助规范落地。
高可用达标定期自查表 | ||||
规范分类 | 指标分类 | 指标项说明 | 达标 | 未达标原因 |
健康达标 | 静态代码扫描 | block个数和超高圈复杂度个数为0 | ||
故障诊断 | 应用已接入链路跟踪 | |||
各项监控指标正常 | ||||
应用健康度 | 98分以上 | |||
存储 | 系统所用存储,具有主从容灾,多机房的特性 | |||
安全 | web后门工具必须有权限认证 | |||
应急预案 | 系统中是否存在checklist文件 | |||
中间件达标 | 日志打印 | 使用slf4j组件 | ||
日志输出需要参数化 | ||||
存在日志级别动态调整开关 | ||||
log配置文件,属性设置了additivity=false | ||||
JDOS日志配置定时清理 | ||||
worker | 配置了调用次数的UMP异常监控报警 | |||
两周内,不存在调度异常的任务 | ||||
依赖jar包版本,是否最新版本3.3.2 | ||||
线程组和线程数配置是否合理(线程组<=32) | ||||
JSF | JSF版本>=1.7.4、序列化方式=hession | |||
多机房部署 | ||||
各分组启动脚本配置一致 | ||||
同组下IP流量性能均衡 | ||||
不存在预发布和线上跨环境调用问题 | ||||
研发工具拥有token授权验证机制 | ||||
核心接口配置了限流策略 | ||||
方法调用次数>高峰期*2报警 | ||||
consumer消费超时,建议值小于2000ms | ||||
数据库 | 连接数检查,小于最大连接数*0.8 | |||
cpu使用率检查,小于90% | ||||
系统负载检查,小于cpu核数*2 | ||||
慢SQL检查 | ||||
索引合理性检查 | ||||
自增ID是否bigint类型检查 | ||||
单表数据量<1000万检查 | ||||
监控预警 | 网络 | 域名多VIP且分布在不同机房 | ||
内网访问域名绑定的VIP不能有外网访问权限 | ||||
域名绑定的服务IP有效性检查,不能错挂,漏挂 | ||||
机器监控 | 域名连通性报警 | |||
IP维度的监控报警 | ||||
内存使用率>90%报警 | ||||
磁盘使用率>85%报警 | ||||
系统负载>cpu核数*2报警 | ||||
TCP重传数>5报警 | ||||
JVM监控 | FullGC报警,2小时<2次 | |||
线程数<日常峰值*1.2报警 | ||||
CPU使用率一分钟激增监控预警(默认5分钟) | ||||
MQ监控 | 配置积压和重试报警 | |||
缓存监控 | QPS>缓存分片数*2万报警 | |||
内存使用率>80%报警 | ||||
热key检查 | ||||
慢日志检查 | ||||
性能监控检查 | ||||
数据分片均匀检查 | ||||
应用方法监控 | 所有api接口有调用次数和可用率监控预警 | |||
所有依赖的rpc接口要有次数和可用率监控预警 | ||||
是否配置了系统存活监控预警 |
五 总结
本文从“高可用为什么存在着很大挑战?”的问题展开探讨,强调了需求交付过程中,协作效率的重要性,并指出了为什么要遵从“今日事,今日毕”的工作原则。又从架构设计,编码实现,安全上线,部署运营等几个方面,详细介绍了技术落地保障相关的指导规范和落地细节。最后又从上线后运营的角度,给出了应急预案三板斧,规范达标定期自查表等比较实用的运营保障工具。希望能够给读者带来帮助。