如何为云原生应用带来稳定高效的部署能力?

如何为云原生应用带来稳定高效的部署能力?

作者 | 酒祝 阿里云技术专家、墨封 阿里云开发工程师

直播完整视频回顾:https://www.bilibili.com/video/BV1mK4y1t7WS/

a s !注“阿里巴巴云原生E 5 o I”公众号,后台C Y + * L回复 “528” 即可下载 PPT

5 月 28 日,我们发起了第 3 期 SIG Cloud-Provider-Alibaba 网研会= W * 6 4直播。本次直x l N播主要介绍了阿里( q ^ z r 2 s .j 8 3 w c G R 4济体大规模应用上云过程中遇到的核心部署问题、采取的对应x u D f | . s J Q解决方案,以及这些方案沉淀为S ] k . W } j l x通用化能力输出开源后,如何帮助阿里云上的用户提升应用部署发布的效率与稳定性。

本文汇集了此次直播完整视频回顾及资料下载,并整理了直播过程中x M * 7 d U 6 $收集的问题和解答,希望能够对大家有所帮助~

如何为云原生应用带来稳定高效的部署能力?

前言

随着近年来 Kubernetes 逐渐成为事实标准和大量应用的云原生化,我们往往发现 Kubernetes 的原生 workload 对大规模化应用的支持并不十分“友好”# X A _。如何在 Kubernetes 上为应用提供更加完善、: f *高效、灵活的部署发布能力,成为! ^了我们探索的目标。

本文将会介绍在阿里经济体全面接入云原生的过程中,我们在应用部署方面所做的改进优化、实现功能更加完备的增强版 w| ? i R 2orkload、并将其开源到社区,使得现在每一位 Kubernetes 开发者和阿里云上的用户都能很便捷地使用上阿里巴巴内部云原生应用所统一使用的部k a t ( 2 [署发布能力。

  • 第一期网研会回顾:Kubernetes SIG-Cloud-PrI v W c b B }ovider-Alibaba 首次网研会(含 PPT 下载)
  • 第二期网研会回顾:在生产环T I y n境中,阿里云如何构建高性x Z n : X $ 4 E 2能云原生容器网络?(含 PPT 下载)

阿里应用场景与原7 ~ J生 wo^ . : ` C 4rkloads

阿里巴巴容器化道路的起步在国内外都是比较领先的。容器这个技术概念虽然出现得很早,$ p m ; S ~ D但一直到 2013 年 Docker 产品出现后才逐渐为人所熟知。而阿里巴巴早在 2011 年就开始发展了基于 LXC 的容器技术,经过了几代的系统演进,如今阿里巴巴有着超过百万的容器体量,这个规模在世界范围内都是顶尖的。

随着云技术发展和云原生应用的兴起,我们近两年间逐步将过去的容器迁到了基于 Kubernetes 的云原生环境中。而在这其中,我们遇到了不少应用部署方面的问题。首先对于应用开发者来说,他们对迁移到云原生环境的期望是:

  • 面向丰富业务场景的策略功能
  • 极致的部署发布效率
  • 运行时的稳定性和容错能力

阿里的应用场景非常复杂,基于 Kubernetes 之上生长着很多不同的 PaaS 二B & d L T W ! ;层,比如服务于电商业务的运维中台、规模化运维、中间件、Serverless、函数计算等,而每个平台都对部署、发布要求各有不同。

我们再来看一下H g 1 8 R 6 K Kubernete 原生所提供的两种常用 workload 的能力:

如何为云原生应用带来稳定高效的部署能力?

简单来说,Deployment 和 StatefulSet 在一些小规模的场景下是可以 workv a i P # 的;但到了q | S $ K ) D阿里巴巴这种应用和容器的规模下,如果全量使用原生 workload 则是完全不现实的。目前阿z / F H P , j里内部容器集群上的应用数量超过十万、容器数量达到百万,有部分重点核心应用甚至单个应用下就有上万的容器。再结合上图的问题,我们会发现不仅针对单个应用的发- . e O b :布功能不足,而且当发布高峰期大量应用同时在升级时,超大规模的 Pod 重建也成为一种“灾难”。

阿里自研的扩展 workloads

针对原生 workload 远远无法满足应用场景的问题,我们从各种复杂的业务场景中抽象出共通的应用部署需求,据此开发了多种扩展 workload。n G Q在这些 workload 中我们做了大幅的增强和改进,但同时也会严格保证功能的通用化、不允许将业务逻辑耦合进来。

这里6 8 = x我们重点介绍一下 CloneSet 与 Advanced StatefulSet。在阿里内部云原生环境下,几乎全量的电商相关应用都统一采用 CloneSet 做部署发布,而中间件等有状态应用则使用了 Advanced StN E m } -atefulSet 管理。

如何为云原生应用带来稳定高效的部署能力?

Advanced Statc ( ! } +efulSet 顾名思义,是原生 StatefulSet 的增强R ( U ` U o Y版,默认行为与原生完全) d r G w 5一致,在此之外提供了原地升级、并行发布(最大不可用)、发布暂停等功能。而 CloneSet 则对标原生 Deployment,主要服务于无状态应用,提供了最为全面丰富的部署发布策略。

原地升级

CloneSet、Advanced StatefulSet 均支持指定 Pod 升级方式:

  1. ReCreate:重建 Pod 升级,和原生 Deployment/StatefulSet 一致;
  2. InPlaceIfPossible:如果只修改 image 和 metadata 中的 labeg T / J $ : Xls/annj y k totations 等字段,则触发 P; # j 7 |od 原地升级;如果修改了其他 template spec 中的字段,则退化到 Pod 重建升级;
  3. InPlaceOnly:只允许修改 image 和 metadata 中的 labels/annotations 等字段,只会使用原地升级。

所谓原地升级,就是在升级 templc K / k L oate 模板的时候,workload 不会把原 Pod 删除、新建,而是直接在原 Pod 对象上更新对应的 image 等数据。

如何为云原生应用带来稳定高效的部署能力?

如上图所示,在原地升级的时候 CloneSet 只会更新 Pod spec 中对应容器的 image,而后 kubelet 看到 Pod 中这个容器的, v D定义发生了变化,则会把对应的容! ! p b K器停掉、拉取新的镜像、并使用新镜像创建启动容器。另外可以看到在过程中,这个 Pod 的 sc c o P ] a } +andbox 容器以及其他本次未升级的容器还一直X 2 l 3 + J $处于正常运行状态,只有需要升级的容器会受到影响。

原地升级W , F o ( P W给我们带来的好处实在太多了:

  • 首先就是发布效率大大提升了,根据非完全统计数据,在阿里环境下原地升级至少比完全重建升级提升了 80% 以上的发布速度:不仅省去了调度、分配网络、分配远程盘的耗时,连拉取新镜像的时候都得益于 node 上已有旧镜像、只需要拉取h z 9 H ! ? $ n较少的增量 layer);
  • IP 不变- & K /、升级过程 Pod 网络9 D i E - @ 1 2 m不断,除本次升级外的其他容器保持正常运行;
  • Volume 不变,完全复用原容器的挂载设备;
  • 保障了集群确定性,使排布拓扑能通过大促验证。

后续我们将会有专文讲_ H 0 5 A M +解阿里在 Kubernetes 之上做的原地升级,意义非常重大。如果没有了原地升级,阿里巴巴内部超大规模的应r % t | v j J R }用场景几乎是无法在原生 Kubernetes 环境上完美落地的,我们也鼓励每一位 Kubek - w S e z V srnetes 用户都应该“体验”一下原地升级,它给我们带来了y v r 1 %不同于 Kubernetes 传统发布模_ z s式的变革。

流式+分批发布

前一章我们提到了,目前 Deployment 支持 maxUnavailable/maxSurge 的流式升级,而 StatefulSet 支持 p) T ! $ Z Z u Hartition 的I ; 3 + J g d b D分批升级。但问题在于f y 5 4 s ~ J ,Deployment 无法灰度分批,而 StatefulSV [ &et 则只能一个一个 Pod 串行发布,没办法并行的流式升级。

首先要说的是,我们将 maxUnavailable 引入了 AdA T nvanced StatefulSet。原生 Stag D _ Y ` = ItefulSet 的 one by one 发布,大家其实可以理解为一个强制 mH v z / $ ( [ p daxUnavailable=1 的过程,而 Advancedp @ f U ) / StatefulSel ; bt 中如果我们配置了更大的 maxUnavailable,那么就支持并行发布更多的 Pod 了。

然后我们再来看一下 CloneSet,它支持原生 Deployment 和 StatefulSetx Q a h 的全部发布N 7 d [ 4 - ` C /策略,包括 maxUnavailable、maxSurge、partit; d 6 P Fion。那么 CloneSet 是如何把它们结合在一起的呢?我们来看一个例子:

apiVersion: apps.kruise.io/v1alpha1? a ; , 2 s A ^ r
kind: CloneSet
# ...
spec:
replicas: 5          # Pod 总数为 5| y 4 $ E , r q
updateStri { N Nategy:
type: InPlaceIfPossible
maxSurge: 20%      # 多扩出来 5 * 2X A ~ ` 7 H $ p0% = 1 个 Pod (roundin+ = {g ui 4 Rp)
maxUnavailable: 0  # 保证发布过程 5 - 0 = 5 个 Pod 可用
partition: 3       # 保留 3 个旧版本 Pod (只发布 5 - 3 = 2 个 Pod)

针对这个副本数为 5 的 CloneSet,如果我们修改了s p S M l template 中的 image,同时配置:maxSurge=20% maxUnavailabl I . 8 { Qe=0 partition=3。当开始发布后:

  1. 先扩出来 1 个新版本的 Pod,5 个存量 Pod 保持不动;
  2. 新 Pod ready 后,逐步把旧版i , g t t q本 Pod 做原地升级;w Z P @
  3. 直到剩余 3 个旧版本 Pod 时,因为满足了{ & / } } partition 终8 + J M - 3态,会把新版本 Pod 再删除 1 个;
  4. 此时 Pod 总数仍然为 5,其中 3 个旧版本、1 个新版本。

如果我们接下来把 partition 调整为 0,则 Cd w U I 9loneSet 还是会先扩出 1 个额外的新版 Pod,随后O ~ c g逐渐将所有 Pod 升级到新版,最终再次W f ; a删除一个 Pod,达到 5 个副本全量升级的终态。

发布顺序可配置

对于原生的 Deployment 和 StatefulSet,用户是无法配置发布顺序的。Deployment 下的 Pod 发布顺序完全依赖于它修改 ReplicaSet 后的扩缩顺序,而 StatefulSet 则严格按照 order 的反序来做一一升级。

但在 CloneSet 和- R v r y % _ Advanced Statefu( Z F @ # y llSet 中,我们增加了发布顺序的可配置能力,使用户可以定制自己的发布顺序。目前可以通过以下两种发布优先级和一种发布打散策略来定义顺序:

  • 优先级(1):按F u ] 2 f u给定 label key,在发布时根据 Pod labels 中这_ A w 4 ~ C个 key 对应的 value 值作为权重:
apiVersion: apps.kruise.io/v1alpha1
kind: CloneSet
spec:
# ...
updateStrategy:
priorityStrategy:
orderPriorit9 w , V =y:
- orderedKey: some-label-key
  • 优先级(2):按 selector 匹配计算权重,发布时根据 Pod 对多个 weight selector 的匹配情况计算权重总和:
apn 4 = | RiVersion: apps.kruise.io/v1alpha1
kind: CloneSem / } & q 3t
spec:
# ...
updateStratb V 5 k Y wegy:
priorityStrategr 3 . a ^ o Wy:
weightPriority:
-* ] v / s $ A weight: 50
matchSelectoY V A ; o Vr:
matchLabels:
test-key: foo
- weight: 3j F ! B0
matchSelector:
mat) s  % pchLS r ;abels:
test-key: bar
  • 打散:将匹配 key-value 的 Pod 打散到不同批次中发M t ; % ]布:
apiVersion: apps.kruise.io/v1alpha1
kind: CloneSet
spec:
# ...
updateStrategy:
scatterStrategy:
- key: some-label-key
value: foo

可能有同学会问为什么要配置发布顺序呢?比如 zookeeper 这类应用在发布时,需要先把所有非主节点升级,最后再升级主节点,这样才能保证在整个发布过程中只会发生一次切主。这时用户就可以通过流程打标、或者写一个 operator 自动为 zookeeper 的 Pod 打上节点职责2 f R Z Z x 3 G的标W T K P b签,而后配置非主节点的发布权重较大,使得发布时能够尽量减少切主的次数。

sidecar 容器管理

轻量化容器也是3 ` T n v #阿里巴巴在云原生阶段的一次重大改革,P B 3 @ d , E 7 =过去阿里的容器绝大多数都是以“富容器”的方式运行的,所谓“富容器”即在一个容器中既运行业务、也跑着各种各样的插件和守[ c =护进程。而在云原生时代,我们在逐渐把原先“富容器”中的旁路插件拆分到独立的 sidecar 容器中,使主容器逐渐回归业务自身。

这里对于拆分的好处B R 0 l就不赘述了,我们来看下另一个问题,就是拆分之后这些 sidecar 容器如^ [ k _ Y X D B4 v D做管理呢?最^ h V B r L直观的方式是在每个应用的 worklo0 : q Iad 中显示去定义 Pod 中需要的 sidecar,但这样带来的问题很多:

  1. 当应用和 workload 数量众多时,我们很难统一的 sidecar 增减管理;
  2. 应用开发者不知道(甚至也不关B W D R ` ] X r 3心)自己的应用需要配置哪些 sidecar 容器;
  3. 当 sidecar 镜像需要升级时,要把所有应用的 workload 全部升级一遍,& + s m & o V很不现实。

因此,我们设计了 Sidecaz b , rrSet,将 sidecar 容器的定义与应用 workload 解耦。应用开发者们不再W & r 3 )需要再关心自己的 workload 中需要写哪些 sidecar 容器,而通过9 i Y d原地升级, sidecar 维护者们也可以自主地管理和. ^ 3 M y h Z ] ;升级 sidecar 容器。

如何为云原生应用带来稳定高效的部署能力?

开放能力应用

到了这里,大家是不是对阿里巴巴的应用部署A @ g e模式有了一个基本的了解呢?其实上述的能力都已经q d $ 1 b p开源到了社区,我们[ u ]的项目# A ]就叫做 OpenKruise,目前它已经提供了 5 种扩展 workload:

  • CloneSet:提供了更加高效、确定可控的应用管理和部署能力,支持优雅原地升级、指定删除、g b = T % $ 1 l发布顺序可配置、并行/灰度发布等丰富的策略,可以满足更多样化的应B = # w U L用场景;
  • Advanced StatefulSet:基于原生 Statefuy q E T F - + lSet 之上的增强版本,默认行为与原生完全一致,在此之外提供了原地升级、并行发布(最大不可用)、发布暂停等功能;
  • SidecarSet:对 sidecar 容k ( { ` / L器做统一管理,在满足 selector 条件的 Pod 中注入指定的 sidecar 容器;
  • United! D E qDeployment:通过多个 subset workload 将应用部署到多个可用区;
  • BroadcastJob( ` $ / Z:配置一个 job,在集群中所有满足条件的 Node 上都跑一个 Pod 任务。

此外,我们还有更多的扩展能力还在开源的路上x % [!近期,我们会将内部的 Advanced DS Z s eaemonSet 开放到 OpenKruise 中,它在原生 DaemonSet 的 maxUnavailable 之上,额9 d . R J外提供了如分批、selectP S A r = : ] q or 等发布策略] ; N,分批的功能a + k ? W n 3使 DaemonSet 在发布的时候能够只升级其中部分 Pod,而 selector 更是允许发& A c e c ? x $布的时候指定先在符合某些标签的 node 上升级,S % ~ E f $这为我们在大规模集群中升级 DaemonSet 带来了灰度能力和稳定性的保障。

而后续,我们还计划将阿里巴巴内部扩展的 HPA、调度插件等通用化能力开放出来,让每一位 Kubernetes 开发者和阿里云上的用户都能很便捷地使用上阿里内部开发应用的云原生增强能M } q z Y O b G {力。

最后,我O ~ f + % R U F们也欢迎每一位云原生爱好者b , ~来共同参与 OpenKruis2 } q S 9 | 8 U ue 的建设。与其他一些开源项目不同,OpenKr_ | ; E - l ~ suise 并不是阿里内部代码的复刻;恰恰相反,OpenKruise Github 仓库是阿里内部代码库的 ups{ v = R ` Itream。因此,每一行你贡献的代码,都将运行在阿里内部的所有} 5 r u Y ~ _ & b Kubernetes 集群中、都将共同支撑了阿里巴巴全球顶尖规模的应I t X + v ` Y用场 n o L景!

Q & A

Q1:目前阿里最大规模的业务 p} $ Rod 数量有多少,发布一次需要多少时间?
A1:这个只能透露数量目前最大规模的单个应用下数量是以万为单位的,一0 t L X h 6 g ~ P次发布时间要看具体分批灰度的时长了。如果分批较多、观察时间较长的话,可能是会持续一两周的。

Q2:pod 的资源 request 和 limit 是怎么配置的?request 和 limit 是什么比例来配置?过多的 request 造成浪费,过少可能会导致热点 nodH 2 x { T % d 1 =e 负载超高。
A2:c C 5 U这个主要还是根据应用的需求来定的,目前大部分在线应用都是 1:1 的关系,部分离线) Q b 9 Yjob 类型的会配置 request>limit。H f s # e d

Q3:kruise 升级问题,升级 kurise apiversion 版本的情况下,原有U k Z |的版本的部署如何升级?
A3:目前 kruiseh 9 1 b v w n Q ` 中资源的 apiVersion 还都是统一的。我们计划在今年下半年将部分较为成熟A U A X + P的 workload 进行版本升级 C ` O A Y r 1 z,用户6 ! N 7在自己的 K8s 集群内升级后,存量的旧版v X 5 x [ f (本资源会自动通过 converj 0 C E D s Asion 升级到新版本。

Q4:OpenKruise 有提供 go-client 吗?
A4:目前提供两个方式L v x * A % W *:1.引入 github.com/openkruise/kruise/pkg/client 包,s ( j : ~ | x下面有生成好的 clientset / informe~ I o k ur/ lister 等工具;2. 使用 controller-runtime 的用户(包括 kubebuilder、operator-sdk),直接引入 github.com/openkruise/kruise-api 轻量化依赖,然后加到B m 8 b scheme 里就能直接用b 5 0 B v O D m了。

Q5:阿里 K8s 版本升级是如何做的?
A5:阿里集团内部使用 Kube-On-Kube 的架构进行大规模的 Kuberj w L ) y @ Gnetes 集群管理,用一个元 K8s 集群管理成百上千个业务 K8s 集群。其中元集群版本较为稳定,业务集群会进行频繁升级,业务集群的升级流程事实上就是对元集群中的 work8 ; ~ O 2 ; 0 Ploads(原生 workloads 以及 kruise workloads) 进行@ ! r J版本或配置升级,与正常情况我们对业务 workloads 的升级流程相似。

Q6:这个灰度之后,流量是怎么T M * xb c n x N p u 8的?
A6:在原地升级前,kruise 会先通过 readinessGate 将 Pod 置为 not-ready,; e K 4 M : g %此时 endpoint 等控制器会感知到并把s @ h K = g H U Pod 从端点摘掉。然后 kruise 更新 pod image 触发容器重建,完成后再把 Pod 改为 ready。

Q7:daemonset 的分批是通过类似 deployment 的暂停功能实现的么?统计已经发布数量然后暂停,然后继续,然后再暂停。
A7:总体过程上类似,升级过程中对新旧版本进行统计并判断是否已达到指定终态。但相比 deployment,daemonset 需要处理比较复杂的边界情况(例如初次发布时集群中z . ; F m n并没有指定的 Pod),具体细节可以持续关注我们即将开源的代码。

Q8:多集群发布页面上怎么开始发布的?
A8:直播中演示的是一个 demo 的发布系统结合 Kruise Workloads 的例子,从交互上是通过用户选择对应的集群,点击开始执行进行发布;从实现上实际是对新版本的 YAML 与集群中的 YAML 计算 diff 后 Patch 进集群,再操作 DaemonE X 7 C + } !Set 的控制字段(partition / paused 等),控制灰度进程。

“阿里巴巴云原生关注微服务、Serverless、2 / H 2 q f容器、Service Mesh 等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实l - W 2 i k u , $践,做最懂云原生开发者的公众号。”