From 336512fcedd6c540768dc071b0a7f99cf882d9e1 Mon Sep 17 00:00:00 2001 From: wxin <15253413025@163.com> Date: Sun, 11 Aug 2024 21:14:48 +0800 Subject: [PATCH] =?UTF-8?q?=E4=B8=8A=E4=BC=A0=E6=96=87=E4=BB=B6=E8=87=B3?= =?UTF-8?q?=20kubernetes-MD?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- kubernetes-MD/Kubernetes资源对象Pod.md | 307 ++++++++++++++ kubernetes-MD/kubernetes污点与容忍.md | 123 ++++++ kubernetes-MD/kubernetes资源对象ConfigMap.md | 395 +++++++++++++++++++ kubernetes-MD/kubernetes资源对象Label.md | 131 ++++++ 4 files changed, 956 insertions(+) create mode 100644 kubernetes-MD/Kubernetes资源对象Pod.md create mode 100644 kubernetes-MD/kubernetes污点与容忍.md create mode 100644 kubernetes-MD/kubernetes资源对象ConfigMap.md create mode 100644 kubernetes-MD/kubernetes资源对象Label.md diff --git a/kubernetes-MD/Kubernetes资源对象Pod.md b/kubernetes-MD/Kubernetes资源对象Pod.md new file mode 100644 index 0000000..73b5dcb --- /dev/null +++ b/kubernetes-MD/Kubernetes资源对象Pod.md @@ -0,0 +1,307 @@ +

Kubernetes资源对象Pod

+ + + +------ + +## 一:Pod基本概念 + +#### 1.认识pod + +​ Pod直译是豆荚,可以把容器想像成豆荚里的豆子,把一个或多个关系紧密的豆子包在一起就是豆荚(一个Pod)。在Kubernetes中我们不会直接操作容器,而是把容器包装成Pod再进行管理;Pod是Kubernetes进行创建、调度和管理的最小单位;Pod运行于Node节点上, 若干相关容器的组合;Pod内包含的容器运行在同一宿主机上,使用相同的网络命名空间、IP地址和端口,能够通过localhost进行通信;Pod可以指定一组共享存储。Volumes Pod中。Pod中的所有容器都可以访问共享卷,从而使这些容器可以共享数据;Pod 就是 k8s 世界里的"应用";而一个应用,可以由多个容器组成。 + +​ ![img](https://docimg10.docs.qq.com/image/v42rJlcMcT5SyfEdxFC-pQ?w=499&h=428) + +​ ![img](Kubernetes%E8%B5%84%E6%BA%90%E5%AF%B9%E8%B1%A1Pod.assets/NYEY9Y5PKwaGws3MLskAkQ.png) + +**注意:** + +​ 重启 Pod 中的容器不应与重启 Pod 混淆。Pod 本身不运行,而是作为容器运行的环境,并且一直保持到被删除为止;Pod本身无法自我修复。如果将Pod调度到发生故障的节点,或者调度操作本身失败,则将Pod删除;同样,由于缺乏资源或Node维护,Pod无法幸免。Kubernetes使用称为Controller的更高级别的抽象来处理管理相对易用的Pod实例的工作。因此,虽然可以直接使用Pod,但在Kubernetes中使用Controller管理Pod更为常见。 + +#### 2.pause容器 + +作用:负责同一个pod的容器通信 + +​ 每个Pod中都有一个pause容器,pause容器做为Pod的网络接入点,Pod中其他的容器会使用容器映射模式启动并接入到这个pause容器;属于同一个Pod的所有容器共享网络的namespace;一个Pod里的容器与另外主机上的Pod容器能够直接通信。 + +#### 3.Pods and Controllers + +​ Controller可以为您创建和管理多个Pod,以处理复制和推出并在集群范围内提供自我修复功能。例如,如果某个节点发生故障,则控制器会将这个Node上的所有Pod重新调度到其他节点上。 + +#### 4.Pod 模板 + +​ Pod 模板是包含在其他对象中的 Pod 规范,例如 Replication Controllers、 Jobs、和 DaemonSets。 控制器使用 Pod 模板来制作实际使用的 Pod。 下面的示例是一个简单的 Pod 清单,它包含一个打印消息的容器。 + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: myapp-pod + labels: + app: myapp +spec: + containers: + - name: myapp-container + image: busybox + command: ['sh', '-c', 'echo Hello Kubernetes! && sleep 3600'] +``` + +#### 5.Pod 的终止 + +​ Pod 代表在集群中的节点上运行的进程,所以当不再需要这些进程时,允许这些进程优雅地终止是非常重要的,用户应该能够请求删除并且知道进程何时终止,但是也能够确保删除最终完成。当用户请求删除 Pod 时,系统会记录在允许强制删除 Pod 之前所期望的宽限期,并向每个容器中的主进程发送 TERM 信号。一旦过了宽限期,KILL 信号就发送到这些进程,然后就从 API 服务器上删除 Pod。如果 Kubelet 或容器管理器在等待进程终止时发生重启,则终止操作将以完整的宽限期进行重试。 + +**终止流程:** + +​ 用户发送命令删除 Pod,使用的是默认的宽限期(30秒) + +​ API 服务器中的 Pod 会随着宽限期规定的时间进行更新,过了这个时间 Pod 就会被认为已 “死亡” + +​ 当使用客户端命令查询 Pod 状态时,Pod 显示为 “Terminating” + +​ 当 Kubelet 看到 Pod 由于步骤2中设置的时间而被标记为 terminating 状态时,它就开始执行关闭 Pod 流程 + +​ 给 Pod 内的进程发送 TERM 信号((和第3步同步进行)从服务的端点列表中删除 Pod,Pod也不再被视为副本控制器的运行状态的 Pod 集的一部分。当负载平衡器(如服务代理)将 Pod 从轮换中移除时,关闭迟缓的 Pod 将不能继续为流量服务) + +​ 当宽限期结束后,Pod 中运行的任何进程都将被用 SIGKILL 杀死 + +​ Kubelet 将通过设置宽限期为0(立即删除)来完成删除 API 服务器上的 Pod。Pod 从 API 中消失,从客户端不再可见 + +#### 6.使用Pod + +下面是一个 Pod 示例,它由一个运行镜像 `nginx:1.20.1` 的容器组成 + +```shell +[root@master ~]# vim nginx.yaml +apiVersion: v1 +kind: Pod +metadata: + name: nginx +spec: + containers: + - name: nginx + image: nginx:1.20.1 + ports: + - containerPort: 80 +``` + +要创建上面显示的 Pod,请运行以下命令: + +```shell +[root@master ~]# kubectl apply -f nginx.yaml +``` + +#### 7.用于管理 pod 的工作负载资源 + +​ 通常你不需要直接创建 Pod,甚至单实例 Pod。 相反,你会使用诸如 Deployment或 Job 这类工作负载资源 来创建 Pod。如果 Pod 需要跟踪状态, 可以考虑 StatefulSet 资源。 + +**Kubernetes 集群中的 Pod 主要有两种用法:** + +​ 运行单个容器的 Pod。"每个 Pod 一个容器"模型是最常见的 Kubernetes 用例; 在这种情况下,可以将 Pod 看作单个容器的包装器,并且 Kubernetes 直接管理 Pod,而不是容器 + +​ 运行多个协同工作的容器的 Pod。 Pod 可能封装由多个紧密耦合且需要共享资源的共处容器组成的应用程序。 这些位于同一位置的容器可能形成单个内聚的服务单元 —— 一个容器将文件从共享卷提供给公众, 而另一个单独的容器则刷新或更新这些文件。 Pod 将这些容器和存储资源打包为一个可管理的实体。 + +​ 每个 Pod 都旨在运行给定应用程序的单个实例。如果希望横向扩展应用程序(例如,运行多个实例 以提供更多的资源),则应该使用多个 Pod,每个实例使用一个 Pod。 在 Kubernetes 中,这通常被称为 *副本(Replication)*。 通常使用一种工作负载资源及其[控制器](https://kubernetes.io/zh/docs/concepts/architecture/controller/) 来创建和管理一组 Pod 副本。 + +#### 8.Pod 怎样管理多个容器 + +​ Pod 被设计成支持形成内聚服务单元的多个协作过程(形式为容器)。 Pod 中的容器被自动安排到集群中的同一物理机或虚拟机上,并可以一起进行调度。 容器之间可以共享资源和依赖、彼此通信、协调何时以及何种方式终止自身。 + +​ 例如,你可能有一个容器,为共享卷中的文件提供 Web 服务器支持,以及一个单独的容器负责从远端更新这些文件,如下图所示: + +image-20220501135545030 + +​ 有些 Pod 具有 Init 容器和 应用容器。 Init 容器会在启动应用容器之前运行并完成。 + +​ Pod 天生地为其成员容器提供了两种共享资源:网络和 存储。 + +## 二:Pod生命周期 + + Pod 遵循一个预定义的生命周期,起始于 `Pending`阶段,至少其中有一个主要容器正常启动,则进入 `Running`,之后取决于 Pod 中是否有容器以 失败状态结束而进入 `Succeeded` 或者 `Failed` 阶段。 + +​ 在 Pod 运行期间,`kubelet` 能够重启容器以处理一些失效场景。 在 Pod 内部,Kubernetes 跟踪不同容器的状态并确定使 Pod 重新变得健康所需要采取的动作。 + +​ Pod 在其生命周期中只会被调度一次。 一旦 Pod 被调度(分派)到某个节点,Pod 会一直在该节点运行,直到 Pod 停止或者被终止。 + +#### 1.Pod 生命期 + +​ 和一个个独立的应用容器一样,Pod 也被认为是相对临时性(而不是长期存在)的实体。 Pod 会被创建、赋予一个唯一的 ID(UID), 并被调度到节点,并在终止(根据重启策略)或删除之前一直运行在该节点。 + +​ 如果一个[节点](https://kubernetes.io/zh/docs/concepts/architecture/nodes/)死掉了,调度到该节点 的 Pod 也被计划在给定超时期限结束后删除。 + +​ Pod 自身不具有自愈能力。如果 Pod 被调度到某节点而该节点之后失效,Pod 会被删除;类似地,Pod 无法在因节点资源 耗尽或者节点维护而被驱逐期间继续存活。Kubernetes 使用一种高级抽象 来管理这些相对而言可随时丢弃的 Pod 实例,称作控制器。 + +​ 任何给定的 Pod (由 UID 定义)从不会被“重新调度(rescheduled)”到不同的节点; 相反,这一 Pod 可以被一个新的、几乎完全相同的 Pod 替换掉。 如果需要,新 Pod 的名字可以不变,但是其 UID 会不同。 + +​ 如果某物声称其生命期与某 Pod 相同,例如存储[卷](https://kubernetes.io/zh/docs/concepts/storage/volumes/), 这就意味着该对象在此 Pod (UID 亦相同)存在期间也一直存在。 如果 Pod 因为任何原因被删除,甚至某完全相同的替代 Pod 被创建时, 这个相关的对象(例如这里的卷)也会被删除并重建。 + +​ 一个包含多个容器的 Pod 包含一个用来拉取文件的程序和一个 Web 服务器, 均使用持久卷作为容器间共享的存储。 + +#### 2.Pod 阶段 + +​ Pod 的 `status` 字段是一个PodStatus对象,其中包含一个 `phase` 字段。 + +​ Pod 的阶段(Phase)是 Pod 在其生命周期中所处位置的简单宏观概述。 该阶段并不是对容器或 Pod 状态的综合汇总,也不是为了成为完整的状态机。 + +​ Pod 阶段的数量和含义是严格定义的。 除了本文档中列举的内容外,不应该再假定 Pod 有其他的 `phase` 值。 + +| 取值 | 描述 | +| :---------------: | :----------------------------------------------------------: | +| Pending(悬决) | Pod 已被 Kubernetes 系统接受,但有一个或者多个容器尚未创建亦未运行;此阶段包括等待 Pod 被调度的时间和通过网络下载镜像的时间。 | +| Running(运行中) | Pod 已经绑定到了某个节点,Pod 中所有的容器都已被创建。至少有一个容器仍在运行,或者正处于启动或重启状态。 | +| Succeeded(成功) | Pod 中的所有容器都已成功终止,并且不会再重启。 | +| Failed(失败) | Pod 中的所有容器都已终止,并且至少有一个容器是因为失败终止。也就是说,容器以非 0 状态退出或者被系统终止。 | +| Unknown(未知) | 因为某些原因无法取得 Pod 的状态。这种情况通常是因为与 Pod 所在主机通信失败。 | + +​ 如果某节点死掉或者与集群中其他节点失联,Kubernetes 会实施一种策略,将失去的节点上运行的所有 Pod 的 `phase` 设置为 `Failed`。 + +#### 3.容器状态 + +​ Kubernetes 会跟踪 Pod 中每个容器的状态,就像它跟踪 Pod 总体上的阶段一样。 你可以使用容器生命周期回调来在容器生命周期中的特定时间点触发事件。 + +​ 一旦调度器将 Pod 分派给某个节点,`kubelet` 就通过容器运行时开始为 Pod 创建容器。 容器的状态有三种: + +Waiting(等待) + +​ 如果容器并不处在 `Running` 或 `Terminated` 状态之一,它就处在 `Waiting` 状态。 处于 `Waiting` 状态的容器仍在运行它完成启动所需要的操作:例如,从某个容器镜像 仓库拉取容器镜像,或者向容器应用Secret数据等等。 当你使用 `kubectl` 来查询包含 `Waiting` 状态的容器的 Pod 时,你也会看到一个 Reason 字段,其中给出了容器处于等待状态的原因。 + +Running(运行中) + +​ `Running` 状态表明容器正在执行状态并且没有问题发生。 如果配置了 `postStart` 回调,那么该回调已经执行且已完成。 如果你使用 `kubectl` 来查询包含 `Running` 状态的容器的 Pod 时,你也会看到 关于容器进入 `Running` 状态的信息。 + +Terminated(已终止) + +​ 处于 `Terminated` 状态的容器已经开始执行并且或者正常结束或者因为某些原因失败。 如果你使用 `kubectl` 来查询包含 `Terminated` 状态的容器的 Pod 时,你会看到 容器进入此状态的原因、退出代码以及容器执行期间的起止时间;如果容器配置了 `preStop` 回调,则该回调会在容器进入 `Terminated` 状态之前执行。 + +#### 4.容器重启策略 + +​ Pod 的 `spec` 中包含一个 `restartPolicy` 字段,其可能取值包括 Always、OnFailure 和 Never。默认值是 Always。 + +​ `restartPolicy` 适用于 Pod 中的所有容器。`restartPolicy` 仅针对同一节点上 `kubelet` 的容器重启动作。当 Pod 中的容器退出时,`kubelet` 会按指数回退 方式计算重启的延迟(10s、20s、40s、...),其最长延迟为 5 分钟。 一旦某容器执行了 10 分钟并且没有出现问题,`kubelet` 对该容器的重启回退计时器执行重置操作。 + +#### 5.Pod 状况 + +​ Pod 有一个 PodStatus 对象,其中包含一个PodConditions数组。Pod 可能通过也可能未通过其中的一些状况测试。 + +PodScheduled:Pod 已经被调度到某节点 + +ContainersReady:Pod 中所有容器都已就绪 + +Initialized:所有的Init 容器都已成功完成 + +Ready:Pod 可以为请求提供服务,并且应该被添加到对应服务的负载均衡池中 + +| 字段名称 | 描述 | +| :----------------: | :----------------------------------------------------------: | +| type | Pod 状况的名称 | +| status | 表明该状况是否适用,可能的取值有 "`True`", "`False`" 或 "`Unknown`" | +| lastProbeTime | 上次探测 Pod 状况时的时间戳 | +| lastTransitionTime | Pod 上次从一种状态转换到另一种状态时的时间戳 | +| reason | 机器可读的、驼峰编码(UpperCamelCase)的文字,表述上次状况变化的原因 | +| message | 人类可读的消息,给出上次状态转换的详细信息 | + +#### 6.Pod详细信息 + +```shell +[root@master xingdian]# kubectl describe pod xingdian +Name: xingdian +Namespace: default +Priority: 0 +Node: node-1/10.0.0.221 +Start Time: Sun, 01 May 2022 14:28:09 +0800 +Labels: +Annotations: +Status: Pending +IP: +IPs: +Containers: + xingdian-nginx: + Container ID: + Image: nginx:1.20.1 + Image ID: + Port: 80/TCP + Host Port: 0/TCP + State: Waiting + Reason: ContainerCreating + Ready: False + Restart Count: 0 + Environment: + Mounts: + /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-q6bcr (ro) +Conditions: + Type Status + Initialized True + Ready False + ContainersReady False + PodScheduled True +Volumes: + kube-api-access-q6bcr: + Type: Projected (a volume that contains injected data from multiple sources) + TokenExpirationSeconds: 3607 + ConfigMapName: kube-root-ca.crt + ConfigMapOptional: + DownwardAPI: true +QoS Class: BestEffort +Node-Selectors: +Tolerations: node.kubernetes.io/not-ready:NoExecute op=Exists for 300s + node.kubernetes.io/unreachable:NoExecute op=Exists for 300s +Events: + Type Reason Age From Message + ---- ------ ---- ---- ------- + Normal Pulling 16s kubelet Pulling image "nginx:1.20.1" + Normal Scheduled 12s default-scheduler Successfully assigned default/xingdian to node-1 +================================================================================= +[root@master xingdian]# kubectl describe pod xingdian +Name: xingdian +Namespace: default +Priority: 0 +Node: node-1/10.0.0.221 +Start Time: Sun, 01 May 2022 14:28:09 +0800 +Labels: +Annotations: +Status: Running +IP: 10.244.2.3 +IPs: + IP: 10.244.2.3 +Containers: + xingdian-nginx: + Container ID: docker://f60ad0e3e13844c294ba8fd05757667ad04a4d28dc48d2289abfc66d405ab06c + Image: nginx:1.20.1 + Image ID: docker-pullable://nginx@sha256:a98c2360dcfe44e9987ed09d59421bb654cb6c4abe50a92ec9c912f252461483 + Port: 80/TCP + Host Port: 0/TCP + State: Running + Started: Sun, 01 May 2022 14:29:32 +0800 + Ready: True + Restart Count: 0 + Environment: + Mounts: + /var/run/secrets/kubernetes.io/serviceaccount from kube-api-access-q6bcr (ro) +Conditions: + Type Status + Initialized True + Ready True + ContainersReady True + PodScheduled True +Volumes: + kube-api-access-q6bcr: + Type: Projected (a volume that contains injected data from multiple sources) + TokenExpirationSeconds: 3607 + ConfigMapName: kube-root-ca.crt + ConfigMapOptional: + DownwardAPI: true +QoS Class: BestEffort +Node-Selectors: +Tolerations: node.kubernetes.io/not-ready:NoExecute op=Exists for 300s + node.kubernetes.io/unreachable:NoExecute op=Exists for 300s +Events: + Type Reason Age From Message + ---- ------ ---- ---- ------- + Normal Pulling 97s kubelet Pulling image "nginx:1.20.1" + Normal Scheduled 93s default-scheduler Successfully assigned default/xingdian to node-1 + Normal Pulled 14s kubelet Successfully pulled image "nginx:1.20.1" in 1m22.663436038s + Normal Created 14s kubelet Created container xingdian-nginx + Normal Started 14s kubelet Started container xingdian-nginx +``` + + + diff --git a/kubernetes-MD/kubernetes污点与容忍.md b/kubernetes-MD/kubernetes污点与容忍.md new file mode 100644 index 0000000..e6ab91e --- /dev/null +++ b/kubernetes-MD/kubernetes污点与容忍.md @@ -0,0 +1,123 @@ +

kubernetes污点与容忍

+ + + +------ + +## 一:污点与容忍 + +​ 对于nodeAffinity无论是硬策略还是软策略方式,都是调度POD到预期节点上,而Taints恰好与之相反,如果一个节点标记为Taints ,除非 POD 也被标识为可以容忍污点节点,否则该 Taints 节点不会被调度pod;比如用户希望把 Master 节点保留给 Kubernetes 系统组件使用,或者把一组具有特殊资源预留给某些 POD,则污点就很有用了,POD 不会再被调度到 taint 标记过的节点 + +#### 1.将节点设置为污点 + +```shell +[root@master yaml]# kubectl taint node node-2 key=value:NoSchedule +node/node-2 tainted +``` + +查看污点: + +```shell +[root@master yaml]# kubectl describe node node-1 | grep Taint +Taints: +``` + +#### 2.去除节点污点 + +```shell +[root@master yaml]# kubectl taint node node-2 key=value:NoSchedule- +node/node-2 untainted +``` + +#### 3.污点分类 + +​ NoSchedule:新的不能容忍的pod不能再调度过来,但是之前运行在node节点中的Pod不受影响 + +​ NoExecute:新的不能容忍的pod不能调度过来,老的pod也会被驱逐 + +​ PreferNoScheduler:表示尽量不调度到污点节点中去 + +#### 4.使用 + +​ 如果仍然希望某个 POD 调度到 taint 节点上,则必须在 Spec 中做出Toleration定义,才能调度到该节点,举例如下: + +```shell +[root@master yaml]# kubectl taint node node-2 key=value:NoSchedule +node/node-2 tainted +[root@master yaml]# cat b.yaml +apiVersion: v1 +kind: Pod +metadata: + name: sss +spec: + affinity: + nodeAffinity: + requiredDuringSchedulingIgnoredDuringExecution: + nodeSelectorTerms: + - matchExpressions: + - key: app + operator: In + values: + - myapp + containers: + - name: with-node-affinity + image: daocloud.io/library/nginx:latest +注意:node-2节点设置为污点,所以label定义到node-2,但是因为有污点所以调度失败,以下是新的yaml文件 +[root@master yaml]# cat b.yaml +apiVersion: v1 +kind: Pod +metadata: + name: sss-1 +spec: + affinity: + nodeAffinity: + requiredDuringSchedulingIgnoredDuringExecution: + nodeSelectorTerms: + - matchExpressions: + - key: app + operator: In + values: + - myapp + containers: + - name: with-node-affinity + image: daocloud.io/library/nginx:latest + tolerations: + - key: "key" + operator: "Equal" + value: "value" + effect: "NoSchedule" +``` + +结果:旧的调度失败,新的调度成功 + +```shell +[root@master yaml]# kubectl get pod -o wide +NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES +sss 0/1 Pending 0 3m2s +sss-1 1/1 Running 0 7s 10.244.2.9 node-2 +``` + +注意: + +​ tolerations: #添加容忍策略 + +​ \- key: "key1" #对应我们添加节点的变量名 + +​ operator: "Equal" #操作符 + +​ value: "value" #容忍的值 key1=value对应 + +​ effect: NoExecute #添加容忍的规则,这里必须和我们标记的五点规则相同 + +​ operator值是Exists,则value属性可以忽略 + +​ operator值是Equal,则表示key与value之间的关系是等于 + +​ operator不指定,则默认为Equal + + + + + + + diff --git a/kubernetes-MD/kubernetes资源对象ConfigMap.md b/kubernetes-MD/kubernetes资源对象ConfigMap.md new file mode 100644 index 0000000..a292f22 --- /dev/null +++ b/kubernetes-MD/kubernetes资源对象ConfigMap.md @@ -0,0 +1,395 @@ +

Kubernetes资源对象ConfigMap

+ + + +------ + +## 一:ConfigMap + +​ 用来存储配置文件的kubernetes资源对象,所有的配置内容都存储在etcd中;ConfigMap与 Secret 类似 + +#### 1.ConfigMap与 Secret 的区别 + +​ ConfigMap 保存的是不需要加密的、应用所需的配置信息 + +​ ConfigMap 的用法几乎与 Secret 完全相同:可以使用 kubectl create configmap 从文件或者目录创建 ConfigMap,也可以直接编写 ConfigMap 对象的 YAML 文件 + +#### 2.创建ConfigMap + +​ 方式1:通过直接在命令行中指定configmap参数创建,即--from-literal + +​ 方式2:通过指定文件创建,即将一个配置文件创建为一个ConfigMap--from-file=<文件> + +​ 方式3:通过指定目录创建,即将一个目录下的所有配置文件创建为一个ConfigMap,--from-file=<目录> + +​ 方式4:事先写好标准的configmap的yaml文件,然后kubectl create -f 创建 + +通过命令行参数--from-literal创建: + +​ 创建命令 + +```shell +[root@master yaml]# kubectl create configmap test-config1 --from-literal=db.host=10.5.10.116 --from-literal=db.port='3306' +configmap/test-config1 created +``` + +​ 结果如下面的data内容所示 + +```shell +[root@master yaml]# kubectl get configmap test-config1 -o yaml +apiVersion: v1 +data: + db.host: 10.5.10.116 + db.port: "3306" +kind: ConfigMap +metadata: + creationTimestamp: "2019-02-14T08:22:34Z" + name: test-config1 + namespace: default + resourceVersion: "7587" + selfLink: /api/v1/namespaces/default/configmaps/test-config1 + uid: adfff64c-3031-11e9-abbe-000c290a5b8b +``` + +通过指定文件创建: + +​ 编辑配置文件app.properties内容如下 + +```shell +[root@master yaml]# cat app.properties +property.1 = value-1 +property.2 = value-2 +property.3 = value-3 +property.4 = value-4 + +[mysqld] +!include /home/wing/mysql/etc/mysqld.cnf +port = 3306 +socket = /home/wing/mysql/tmp/mysql.sock +pid-file = /wing/mysql/mysql/var/mysql.pid +basedir = /home/mysql/mysql +datadir = /wing/mysql/mysql/var +``` + +​ 创建(可以有多个--from-file) + +```shell +[root@master yaml]# kubectl create configmap test-config2 --from-file=./app.properties +``` + +​ 结果如下面data内容所示 + +```shell +[root@master yaml]# kubectl get configmap test-config2 -o yaml +apiVersion: v1 +data: + app.properties: | + property.1 = value-1 + property.2 = value-2 + property.3 = value-3 + property.4 = value-4 + + [mysqld] + !include /home/wing/mysql/etc/mysqld.cnf + port = 3306 + socket = /home/wing/mysql/tmp/mysql.sock + pid-file = /wing/mysql/mysql/var/mysql.pid + basedir = /home/mysql/mysql + datadir = /wing/mysql/mysql/var +kind: ConfigMap +metadata: + creationTimestamp: "2019-02-14T08:29:33Z" + name: test-config2 + namespace: default + resourceVersion: "8176" + selfLink: /api/v1/namespaces/default/configmaps/test-config2 + uid: a8237769-3032-11e9-abbe-000c290a5b8b +``` + +​ 通过指定文件创建时,configmap会创建一个key/value对,key是文件名,value是文件内容。如不想configmap中的key为默认的文件名,可以在创建时指定key名字 + +```shell +[root@master yaml]# kubectl create configmap game-config-3 --from-file== +``` + +指定目录创建: + +​ configs 目录下的config-1和config-2内容如下所示 + +```shell +[root@master yaml]# tail configs/config-1 +aaa +bbb +c=d +[root@master yaml]# tail configs/config-2 +eee +fff +h=k +``` + +​ 创建 + +```shell +[root@master yaml]# kubectl create configmap test-config3 --from-file=./configs +``` + +​ 结果下面data内容所示 + +```shell +[root@master yaml]# kubectl get configmap test-config3 -o yaml +apiVersion: v1 +data: + config-1: | + aaa + bbb + c=d + config-2: | + eee + fff + h=k +kind: ConfigMap +metadata: + creationTimestamp: "2019-02-14T08:37:05Z" + name: test-config3 + namespace: default + resourceVersion: "8808" + selfLink: /api/v1/namespaces/default/configmaps/test-config3 + uid: b55ffbeb-3033-11e9-abbe-000c290a5b8b +``` + +​ 指定目录创建时,configmap内容中的各个文件会创建一个key/value对,key是文件名,value是文件内容,忽略子目录 + +通过事先写好configmap的标准yaml文件创建: + +​ yaml文件内容如下: 注意其中一个key的value有多行内容时的写法 + +```shell +[root@master yaml]# cat configmap.yaml +apiVersion: v1 +kind: ConfigMap +metadata: + name: test-config4 + namespace: default +data: + cache_host: memcached-gcxt + cache_port: "11211" + cache_prefix: gcxt + my.cnf: | + [mysqld] + log-bin = mysql-bin + haha = hehe +``` + +​ 创建 + +```shell +[root@master yaml]# kubectl apply -f configmap.yaml +configmap/test-config4 created +``` + +​ 结果如下面data内容所示 + +```shell +[root@master yaml]# kubectl get configmap test-config4 -o yaml +apiVersion: v1 +data: + cache_host: memcached-gcxt + cache_port: "11211" + cache_prefix: gcxt + my.cnf: | + [mysqld] + log-bin = mysql-bin + haha = hehe +kind: ConfigMap +metadata: + annotations: + kubectl.kubernetes.io/last-applied-configuration: | + {"apiVersion":"v1","data":{"cache_host":"memcached-gcxt","cache_port":"11211","cache_prefix":"gcxt","my.cnf":"[mysqld]\nlog-bin = mysql-bin\nhaha = hehe\n"},"kind":"ConfigMap","metadata":{"annotations":{},"name":"test-config4","namespace":"default"}} + creationTimestamp: "2019-02-14T08:46:57Z" + name: test-config4 + namespace: default + resourceVersion: "9639" + selfLink: /api/v1/namespaces/default/configmaps/test-config4 + uid: 163fbe1e-3035-11e9-abbe-000c290a5b8b +``` + +​ 查看configmap的详细信息 + +```shell +[root@master yaml]# kubectl describe configmap +``` + +#### 3.使用ConfigMap + +​ 通过环境变量的方式,直接传递pod + +​ 通过在pod的命令行下运行的方式 + +​ 使用volume的方式挂载入到pod内 + +示例ConfigMap文件: + +```shell +apiVersion: v1 +kind: ConfigMap +metadata: + name: special-config + namespace: default +data: + special.how: very + special.type: charm +``` + +通过环境变量使用: + +​ 使用valueFrom、configMapKeyRef、name、key指定要用的key + +```shell +[root@master yaml]# cat testpod.yaml +apiVersion: v1 +kind: Pod +metadata: + name: dapi-test-pod +spec: + containers: + - name: test-container + image: daocloud.io/library/nginx + env: + - name: SPECIAL_LEVEL_KEY //这里是容器里设置的新变量的名字 + valueFrom: + configMapKeyRef: + name: special-config //这里是来源于哪个configMap + key: special.how //configMap里的key + - name: SPECIAL_TYPE_KEY + valueFrom: + configMapKeyRef: + name: special-config + key: special.type + restartPolicy: Never +``` + +​ 测试 + +```shell +[root@master yaml]# kubectl exec -it dapi-test-pod /bin/bash +root@dapi-test-pod:/# echo $SPECIAL_TYPE_KEY +charm +``` + +​ 通过envFrom、configMapRef、name使得configmap中的所有key/value对都自动变成环境变量 + +```shell +apiVersion: v1 +kind: Pod +metadata: + name: dapi-test-pod +spec: + containers: + - name: test-container + image: daocloud.io/library/nginx + envFrom: + - configMapRef: + name: special-config + restartPolicy: Never +``` + +​ 这样容器里的变量名称直接使用configMap里的key名 + +```shell +[root@master yaml]# kubectl exec -it dapi-test-pod /bin/bash +root@dapi-test-pod:/# env +HOSTNAME=dapi-test-pod +NJS_VERSION=1.15.8.0.2.7-1~stretch +NGINX_VERSION=1.15.8-1~stretch +KUBERNETES_PORT_443_TCP_PROTO=tcp +KUBERNETES_PORT_443_TCP_ADDR=10.96.0.1 +KUBERNETES_PORT=tcp://10.96.0.1:443 +PWD=/ +special.how=very +HOME=/root +KUBERNETES_SERVICE_PORT_HTTPS=443 +KUBERNETES_PORT_443_TCP_PORT=443 +KUBERNETES_PORT_443_TCP=tcp://10.96.0.1:443 +TERM=xterm +SHLVL=1 +KUBERNETES_SERVICE_PORT=443 +PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin +special.type=charm +KUBERNETES_SERVICE_HOST=10.96.0.1 +``` + +作为volume挂载使用: + +```shell +apiVersion: apps/v1 +kind: Deployment +metadata: + name: nginx-configmap +spec: + replicas: 1 + selector: + matchLabels: + app: nginx + template: + metadata: + labels: + app: nginx + spec: + containers: + - name: nginx-configmap + image: daocloud.io/library/nginx:latest + ports: + - containerPort: 80 + volumeMounts: + - name: config-volume3 + mountPath: /tmp/config3 + volumes: + - name: config-volume3 + configMap: + name: test-config-3 +``` + +​ 进入容器中/tmp/config4查看 + +```shell +[root@master yaml]# kubectl exec -it nginx-configmap-7447bf77d6-svj2t /bin/bash + +root@nginx-configmap-7447bf77d6-svj2t:/# ls /tmp/config4/ +cache_host cache_port cache_prefix my.cnf + +root@nginx-configmap-7447bf77d6-svj2t:/# cat /tmp/config4/cache_host +memcached-gcxt + +可以看到,在config4文件夹下以每一个key为文件名value为值创建了多个文件。 +``` + +​ 假如不想以key名作为配置文件名可以引入items 字段,在其中逐个指定要用相对路径path替换的key: + +```shell + volumes: + - name: config-volume4 + configMap: + name: test-config4 + items: + - key: my.cnf //原来的key名 + path: mysql-key + - key: cache_host //原来的key名 + path: cache-host +``` + +注意: + +​ 删除configmap后原pod不受影响;然后再删除pod后,重启的pod的events会报找不到cofigmap的volume + +​ pod起来后再通过kubectl edit configmap …修改configmap,过一会pod内部的配置也会刷新 + +​ 在容器内部修改挂进去的配置文件后,过一会内容会再次被刷新为原始configmap内容 + + + + + + + + + diff --git a/kubernetes-MD/kubernetes资源对象Label.md b/kubernetes-MD/kubernetes资源对象Label.md new file mode 100644 index 0000000..d90dd27 --- /dev/null +++ b/kubernetes-MD/kubernetes资源对象Label.md @@ -0,0 +1,131 @@ +

kubernetes资源对象label

+ + + +------ + +## 一:标签 + +#### 1.pod标签 + +作用: + +​ 解决同类型的资源对象越来越多,为了更好的管理,按照标签分组 + +常见标签: + +​ release(版本):stable(稳定版)、canary(金丝雀版本、可以理解为测试版)、beta(测试版) + +​ environment(环境变量):dev(开发)、qa(测试)、production(生产) + +​ application(应用):ui、as(应用软件)、pc、sc + +​ tier(架构层级):frontend(前端)、backend(后端)、cache(缓存、隐藏) + +​ partition(分区):customerA(客户A)、customerB(客户B) + +​ track(品控级别):daily(每天)、weekly(每周) + +注意: + +​ K8s集群中虽然没有对有严格的要求,但是标签还是要做到:见名知意!方便自己也方便别人! + +使用: + +​ 为现有的pod添加一个标签 + +```shell +[root@master nginx]# kubectl label pod nginx-xingdian app=nginx -n default +pod/nginx-xingdian labeled +注意: +-n: 指定namespect名字空间 +``` + +​ 查看pod标签 + +```shell +[root@master nginx]# kubectl get pods --show-labels -n default +NAME READY STATUS RESTARTS AGE LABELS +nginx-deployment-585449566-9459t 1/1 Running 0 99m app=nginx,pod-template-hash=585449566 +nginx-deployment-585449566-z6qs8 1/1 Running 0 94m app=nginx,pod-template-hash=585449566 +nginx-xingdian 1/1 Running 0 67m app=nginx,run=nginx-xingdian +``` + +​ 删除标签 + +```shell +[root@master nginx]# kubectl label pod nginx-xingdian app- -n default +pod/nginx-xingdian labeled +``` + +​ 修改标签 + +```shell +[root@master nginx]# kubectl label pod nginx-xingdian release=stable -n default +pod/nginx-xingdian labeled +[root@master nginx]# kubectl get pods --show-labels -n default +NAME READY STATUS RESTARTS AGE LABELS +nginx-deployment-585449566-9459t 1/1 Running 0 112m app=nginx,pod-template-hash=585449566 +nginx-deployment-585449566-z6qs8 1/1 Running 0 106m app=nginx,pod-template-hash=585449566 +nginx-xingdian 1/1 Running 0 80m app=xingdian,release=stable,run=nginx-xingdian +[root@master nginx]# kubectl label pod nginx-xingdian release=beta --overwrite -n default +pod/nginx-xingdian labeled +[root@master nginx]# kubectl get pods --show-labels -n default +NAME READY STATUS RESTARTS AGE LABELS +nginx-deployment-585449566-9459t 1/1 Running 0 112m app=nginx,pod-template-hash=585449566 +nginx-deployment-585449566-z6qs8 1/1 Running 0 107m app=nginx,pod-template-hash=585449566 +nginx-xingdian 1/1 Running 0 81m app=xingdian,release=beta,run=nginx-xingdian +``` + +标签与标签选择器的关系: + +​ 如果标签有多个,标签选择器选择其中一个,也可以关联成功! + +​ 如果选择器有多个,那么标签必须满足条件,才可关联成功! + +标签选择器:标签的查询过滤条件 + +​ 基于等值关系的(equality-based):”=“、”==“、”!=“前两个等于,最后一个不等于 + +​ 基于集合关系(set-based):in、notin、exists三种 + +使用标签选择器的逻辑: + +​ 同时指定的多个选择器之间的逻辑关系为”与“操作 + +​ 使用空值的标签选择器意味着每个资源对象都将被选择中 + +​ 空的标签选择器无法选中任何资源 + +#### 2.node节点标签 + +查看标签: + +```shell +[root@master nginx]# kubectl get nodes --show-labels +NAME STATUS ROLES AGE VERSION LABELS +master Ready master 22h v1.19.3 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=master,kubernetes.io/os=linux,node-role.kubernetes.io/master= +node-1 Ready 22h v1.19.3 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node-1,kubernetes.io/os=linux +node-2 Ready 22h v1.19.3 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node-2,kubernetes.io/os=linux +``` + +增加标签: + +```shell +[root@master nginx]# kubectl label nodes node-1 kubernetes.io/username=xingdian +node/node-1 labeled +``` + +减少标签: + +```shell +[root@master nginx]# kubectl label nodes node-1 a- +node/node-1 labeled +``` + +修改标签: + +```shell +[root@master nginx]# kubectl label nodes node-1 kubernetes.io/username=diandian --overwrite +node/node-1 labeled +``` \ No newline at end of file