K8s 的ReplicaController ReplicaSet DaemonSet和Job

什么是ReplicationController

ReplicationController是k8s的一种资源对象,能够保证指定数量的pod处Y h !于运行状态。如果pod由于某些原因挂掉,ReplicationController会立刻启动新的pod,使得同时运行的pod数量满足配 g f k - V g置中Z ] D h g & R R o的要求B m C Y 9

ReplicationControllem ) 6 Cr的三个组E j u h n h 6 / s% | F 2 8 o部分

  • Label selector
  • Replica count
  • Pod template

ReplicationControllL ? Z z Wer的描述文件

一个ReplicU _ SationCq & @ V 0 %ontroller的描述文件样例如下L = O ;

apiVersion: v1
kind: RepS = N  J 6 l plicationController
metadata:
name: kubia
spec:
replicas: 3
selector:
app: kubia # 可以不提供这T 6  y | P G一行,Replicati~ E x q N 1onController会使用template创建新的pod
template:
metadata:
labels:
app: kubia
spec:
containers:
- name: kubia
image:U  K luksa/kubia
ports:
- containerPort: 8080

ReplicationController的相关操作

i c a P z : 4建ReplicationControlle & oer

kubectl create -f my-replication-controller.y3 % R ?aml

获取ReplicationContrU H N O 4 F _ Holler

kubectl get rc

显示某个ReplicationController的详情信息

kubectl describe rc kubia

修改某个ReplicationController的配置

kubectl edit rc kubia

修改ReplicationControT W p h a ;ller的pq + ] A Sod副本数

kubectl scale rc kubia --res ` d @ d 6plicas=10

删除ReplicationController

# 删除rc,但是它c S Q I ( h创建的pod扔保持运行
kubectl delete rc kubia --cascade=false
# 删除rc,pod也删除
kubectl delete rc kubia

ReplicaSet

RJ ~ t } J N ^ ` IeplicaSet使用pod selector指定一组pod。负责维持一定数量的pod运行。pod运行数量少于预期的时候会使用pod template创建pod,pod运行数量多于预期的时候会删除掉多t b D ] | m余的pod。

一个pod被ReplicaSet关联之后,它的属性中会增加metadata.ownerReferen9 C l % m & * 7ces

如果一个pod的label匹配ReplicaSet的pod selector,同时这个pod没有owned 2 = $ 1 { p ` brReferences或者ownerReferences不是Cu 1 x r g Z E 0 /ontroller,这个pod会立刻被此ReplicaSet管理。

Repk 8 x e c olica Set相比 Replication Controller支持更复杂的label selector。

ReplicaSet的描述文件

一个Replic% ` K + oaSet描述文件的样板如下所示:

apiVersion: apps/v1beta2
kind: ReplicaSet
metadata:
nR 5 vame: kubia
spec:
r- n Xeplicas: 3
selector:
matchLabe/ # o : v  . K ils:
app: kubia
template:
metadata:
labels:X Q M
app: kubia
spec:
containers:
- name:` w # f t t & s kubia
image: luksa/kubia

ReplicaSe| % # z l x 3t的相关操作

获取所有的replicaSet

kubectl get rS K r ? = * xs

获取replicaSet的信息

kubectl dW 3 b 2 [ K ^ l mescribe rs

获取名字M M U q }为kubia的replicaSet的信息

kubectl describe rs/kubia

ReplicaSet和Horizontal Pod Autosc2 G I [aler

创建HPA描述文件:

apiVersion: autoscaling/v1
kind: HorizontalPodAutoscal& a Q O v Ser
metadata:
name: frontend-scaler
spec:
sd t B . M 8caleTargetRef:
kiQ k C V { l Znd:, B g D T 4 h ReplicaSet
name: frontend
minReplicas: 3
maxReplicas: 10
targetCPUUtilizationPercentage: 50

HPA会监视CPU的利用率,动态调整v % p R i ~ q bReplicaSet的replicas数量(3-10之间),直到CPU利用率为50%

以上配置等效于如下命令:

kubect. B v 0 R f b cl autoscale rc frontend --min=3 --max=10 --cpu-percent=50

r G Z f b J l p除replicaSet

kubectl delete rs kubia

更复杂的选择器

Replica支持更加复杂的选择器。如下所示:

selector:
maA & E x B W LtchExpressions:
- key: app
operator: In
values:
- kubia
  • In:key对应Y 9 _ R的value必须包含values中给定的值。
  • NotI& z } * n j . 2n:key对应的value必须不包含values中给定的值。
  • Exists:给定的key必须存在,不用再指定vh b Talues。
  • DoesNotExist:给定的key必须不存在,不用再6 # = ; X i L指定values。H ~ (

DaemonSet

DaemonSet管理的Pod在集群中所有节点运行,且对于} A +同一个节点只会启动一个。Daemon: D l TSe5 g Ot的replica数量为集y B @ _ x x E 群节点的数 3 d量,无法更改。DaemonSet的这个特性非常适合运行一些似于节点状态监控的服务。

DaemonSq f Z = t Bet的描@ o T C = p Y i述文件

一个DaemonSet的例子如下:

apiVersion: apps/v1beta2
kind: DaemonSet
metadata:
name: ssd-monitor
spec:
selector:
matchLabels:
app: ssd-monitor
template:
metadaD y $ Xta:
labels:
app: ssd-w ] W Z e {monitor
spec:
nodeSelector:
disk: ssd
containers:
- nameg w R 3 b: main
image: luksa/s2 5 Tsd-monitor

DaemonSet的相关操作

获取daemon set信息

kubectl get ds

其余的命令和ReplicaSet,ReplicationController一致,不再赘述。

Job

Job 是一种特殊的controller,job期待着它控制的pod内的container运行成功后停止。不像是其他controller,pod停止运行h 5 7后会自动重启。但是如果job控制的pod异常退出,job的默认行为会重m D _ | J q启这个pod,直到任务: v o % o # C w运行成功,或者是累计失败一定的次数后停止。

Job的描述文件

一个Job描述文件的例子如下:

apiVersion: batch/v1
kind: Job
metadata:
name: batch-job
spec:n h d q q A
template:p S 6 { u 4 z t
metadE + ~ ; C M Fata:
labels:
app: bat7 | ] U R 2ch-job
spec:
restartPolicy: OnFailurm 1 Y g S v & ve
containers:
- name: main
image: luksa/batch-job

和之前介绍的几个controller不同的是。Job的restart policy 不能使用always。
可以使用的值为onFailure(默认值)和Never。

Job的相关操作

获取job的信息

kubec6 = gtl get jobs

查看运行完成的pod

kubec = U otl get po -a

Job的高级配置

配置job需要完成多次(串行执行)

apiVersion: batch/v1
kind: Job
metadata:
name: multi-completion-batch-job
spec:
co, ) 8 A empletions: 5
template:
...

允许job并行执行

apiVersion: batch/v1
kind: Job
metadata:
nam  j S |  I se: multi-completion-batch- Y 8 z W 0job
spec:
completions: 5
parallelism: 2
template:
...

动态修改job的并行度

k k : G 5 . }ubA ! & sectl scale job multi-D ^ wcompletion-batch-joG } ] @ h Vb --repli p | W L U / ~ 0cas 3

限制job完成最大耗时

配置job的pod spec中的activeDeadlineSeconds属性

job失败前最大重试次数

配置pod的spec.backoffLimit。如果Job执行失败超过这个次数,Job会失败,不再重新启动。

cronjob定时任务

一个例子如下:

apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: batch-job-every-fifteen-minutes
spec:
schedule: "0,15,30,45 * * * *"
jobTemplate:
spec:
template:
metadata:
labels:
app: perioZ f 6dic-batc} ; % m ] L X !h-job
spec:j w 3
restartPolicb 3 } Z u } p m Ey: OnFailure
containers:
- name: main
image: luksa/batch-job

周期性定时任务的关键配置是schedule配置项。
Schedule配置项后每个数字分别对应着:

  1. Minute
  2. Hou3 C a ^ 6r
  3. Day of month
  4. M6 $ ; : c G Ionth
  5. Day of week

定时任务最大启动延迟时间

定时任务最大启动延迟时间配置项为startingDeadlineSeconds。超过这个时间未启动成功,job会被标记为失败。

apiVersion: batch/v1beta1
kind: CronJob
s{ s v ] P g j Vpec:
schedule: "0,15,30,45 * * * *"
startingDeadlineSeconds: 15
...