什么是ReplicationController
ReplicationController是k8s的一种资源对象,能够保证指定数量的pod处Y h !于运行状态。如果pod由于某些原因挂掉,ReplicationController会立刻启动新的pod,使得同时运行的pod数量满足配 g f k - V g置中Z ] D h g & R R o的要求B m C Y 9。
ReplicationControllem ) 6 Cr的三个组E j u h n h 6 / s成% | F 2 8 o部分
- Label selector
- Replica count
- Pod template
ReplicationControllL ? Z z Wer的描述文件
一个ReplicU _ SationCq & @ V 0 %ontroller的描述文件样例如下L = O ;:
apiVersion: v1
kind: RepS = N J 6 l plicationController
metadata:
name: kubia
spec:
replicas: 3
selector:
app: kubia # 可以不提供这T 6 y | P G一行,Replicati~ E x q N 1onController会使用template创建新的pod
template:
metadata:
labels:
app: kubia
spec:
containers:
- name: kubia
image:U K luksa/kubia
ports:
- containerPort: 8080
ReplicationController的相关操作
创i c a P z : 4建ReplicationControlle & oer
kubectl create -f my-replication-controller.y3 % R ?aml
获取ReplicationContrU H N O 4 F _ Holler
kubectl get rc
显示某个ReplicationController的详情信息
kubectl describe rc kubia
修改某个ReplicationController的配置
kubectl edit rc kubia
修改ReplicationControT W p h a ;ller的pq + ] A Sod副本数
kubectl scale rc kubia --res ` d @ d 6plicas=10
删除ReplicationController
# 删除rc,但是它c S Q I ( h创建的pod扔保持运行
kubectl delete rc kubia --cascade=false
# 删除rc,pod也删除
kubectl delete rc kubia
ReplicaSet
RJ ~ t } J N ^ ` IeplicaSet使用pod selector指定一组pod。负责维持一定数量的pod运行。pod运行数量少于预期的时候会使用pod template创建pod,pod运行数量多于预期的时候会删除掉多t b D ] | m余的pod。
一个pod被ReplicaSet关联之后,它的属性中会增加metadata.ownerReferen9 C l % m & * 7ces
如果一个pod的label匹配ReplicaSet的pod selector,同时这个pod没有owned 2 = $ 1 { p ` brReferences或者ownerReferences不是Cu 1 x r g Z E 0 /ontroller,这个pod会立刻被此ReplicaSet管理。
Repk 8 x e c olica Set相比 Replication Controller支持更复杂的label selector。
ReplicaSet的描述文件
一个Replic% ` K + oaSet描述文件的样板如下所示:
apiVersion: apps/v1beta2
kind: ReplicaSet
metadata:
nR 5 vame: kubia
spec:
r- n Xeplicas: 3
selector:
matchLabe/ # o : v . K ils:
app: kubia
template:
metadata:
labels:X Q M
app: kubia
spec:
containers:
- name:` w # f t t & s kubia
image: luksa/kubia
ReplicaSe| % # z l x 3t的相关操作
获取所有的replicaSet
kubectl get rS K r ? = * xs
获取replicaSet的信息
kubectl dW 3 b 2 [ K ^ l mescribe rs
获取名字M M U q }为kubia的replicaSet的信息
kubectl describe rs/kubia
ReplicaSet和Horizontal Pod Autosc2 G I [aler
创建HPA描述文件:
apiVersion: autoscaling/v1
kind: HorizontalPodAutoscal& a Q O v Ser
metadata:
name: frontend-scaler
spec:
sd t B . M 8caleTargetRef:
kiQ k C V { l Znd:, B g D T 4 h ReplicaSet
name: frontend
minReplicas: 3
maxReplicas: 10
targetCPUUtilizationPercentage: 50
HPA会监视CPU的利用率,动态调整v % p R i ~ q bReplicaSet的replicas数量(3-10之间),直到CPU利用率为50%
以上配置等效于如下命令:
kubect. B v 0 R f b cl autoscale rc frontend --min=3 --max=10 --cpu-percent=50
删r G Z f b J l p除replicaSet
kubectl delete rs kubia
更复杂的选择器
Replica支持更加复杂的选择器。如下所示:
selector:
maA & E x B W LtchExpressions:
- key: app
operator: In
values:
- kubia
- In:key对应Y 9 _ R的value必须包含values中给定的值。
- NotI& z } * n j . 2n:key对应的value必须不包含values中给定的值。
- Exists:给定的key必须存在,不用再指定vh b Talues。
- DoesNotExist:给定的key必须不存在,不用再6 # = ; X i L指定values。H ~ (
DaemonSet
DaemonSet管理的Pod在集群中所有节点运行,且对于} A +同一个节点只会启动一个。Daemon: D l TSe5 g Ot的replica数量为集y B @ _ x x E 群节点的数 3 d量,无法更改。DaemonSet的这个特性非常适合运行一些类似于节点状态监控的服务。
DaemonSq f Z = t Bet的描@ o T C = p Y i述文件
一个DaemonSet的例子如下:
apiVersion: apps/v1beta2
kind: DaemonSet
metadata:
name: ssd-monitor
spec:
selector:
matchLabels:
app: ssd-monitor
template:
metadaD y $ Xta:
labels:
app: ssd-w ] W Z e {monitor
spec:
nodeSelector:
disk: ssd
containers:
- nameg w R 3 b: main
image: luksa/s2 5 Tsd-monitor
DaemonSet的相关操作
获取daemon set信息
kubectl get ds
其余的命令和ReplicaSet,ReplicationController一致,不再赘述。
Job
Job 是一种特殊的controller,job期待着它控制的pod内的container运行成功后停止。不像是其他controller,pod停止运行h 5 7后会自动重启。但是如果job控制的pod异常退出,job的默认行为会重m D _ | J q启这个pod,直到任务: v o % o # C w运行成功,或者是累计失败一定的次数后停止。
Job的描述文件
一个Job描述文件的例子如下:
apiVersion: batch/v1
kind: Job
metadata:
name: batch-job
spec:n h d q q A
template:p S 6 { u 4 z t
metadE + ~ ; C M Fata:
labels:
app: bat7 | ] U R 2ch-job
spec:
restartPolicy: OnFailurm 1 Y g S v & ve
containers:
- name: main
image: luksa/batch-job
和之前介绍的几个controller不同的是。Job的restart policy 不能使用always。
可以使用的值为onFailure(默认值)和Never。
Job的相关操作
获取job的信息
kubec6 = gtl get jobs
查看运行完成的pod
kubec = U otl get po -a
Job的高级配置
配置job需要完成多次(串行执行)
apiVersion: batch/v1
kind: Job
metadata:
name: multi-completion-batch-job
spec:
co, ) 8 A empletions: 5
template:
...
允许job并行执行
apiVersion: batch/v1
kind: Job
metadata:
nam j S | I se: multi-completion-batch- Y 8 z W 0job
spec:
completions: 5
parallelism: 2
template:
...
动态修改job的并行度
k k : G 5 . }ubA ! & sectl scale job multi-D ^ wcompletion-batch-joG } ] @ h Vb --repli p | W L U / ~ 0cas 3
限制job完成最大耗时
配置job的pod spec中的activeDeadlineSeconds
属性
job失败前最大重试次数
配置pod的spec.backoffLimit
。如果Job执行失败超过这个次数,Job会失败,不再重新启动。
cronjob定时任务
一个例子如下:
apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: batch-job-every-fifteen-minutes
spec:
schedule: "0,15,30,45 * * * *"
jobTemplate:
spec:
template:
metadata:
labels:
app: perioZ f 6dic-batc} ; % m ] L X !h-job
spec:j w 3
restartPolicb 3 } Z u } p m Ey: OnFailure
containers:
- name: main
image: luksa/batch-job
周期性定时任务的关键配置是schedule
配置项。
Schedule配置项后每个数字分别对应着:
- Minute
- Hou3 C a ^ 6r
- Day of month
- M6 $ ; : c G Ionth
- Day of week
定时任务最大启动延迟时间
定时任务最大启动延迟时间配置项为startingDeadlineSeconds
。超过这个时间未启动成功,job会被标记为失败。
apiVersion: batch/v1beta1
kind: CronJob
s{ s v ] P g j Vpec:
schedule: "0,15,30,45 * * * *"
startingDeadlineSeconds: 15
...