基于Kind的Kubernetes环境部署

这里我们通过Kind来在本地搭建部署K8s环境,以用于学习、测试

abstract.png

基础环境部署

安装Kind

Kind(Kubernetes In Docker)是一个使用Docker构建、部署Kubernetes集群的工具。支持Linux、macOS以及Windows操作系统。非常适合用来在本地搭建Kubernetes集群的开发、测试环境。前面提到Kind是基于Docker的,故使用Kind还需要安装Docker,这里关于Docker安装不再赘述。这里在Mac环境下,我们直接利用brew工具安装Kind

1
2
# 安装 Kind
brew install kind

安装完毕后,查看Kind版本信息,确认安装成功

1
2
# 查看Kind版本信息
kind version

如下所示,kind安装成功

figure 1.jpeg

安装kubectl

kubectl是Kubernetes的命令行工具,可以让我们通过命令访问、操作、管理Kubernetes集群。brew安装方法如下

1
2
# 安装 kubectl
brew install kubectl

安装完毕后,查看kubectl版本信息,确认安装成功

1
2
# 查看kubectl版本信息
kubectl version --client

如下所示,kubectl安装成功

figure 2.jpeg

搭建K8s集群

搭建单节点集群

一切准备就绪后,我们就可以通过Kind直接使用命令搭建一个K8s集群。此时其是一个单节点的K8s集群

1
2
# 创建一个名为 my-k8s-cluster-1 的K8s集群
kind create cluster --name my-k8s-cluster-1

如下所示,通过Docker也不难看出,K8s集群搭建成功

figure 3.jpeg

这里补充说明下,在第一次通过Kind创建集群过程中。如果Docker本地没有node镜像会先需要拉取镜像,进而导致该命令执行阻塞时间较长。故此时我们先中止该命令执行,并通过上图红框确定当前使用node镜像信息为kindest/node:v1.24.0。然后利用docker pull命令先拉取该镜像到本地后,再利用创建Kind创建K8s集群

1
2
# 拉取 kindest/node:v1.24.0 的Docker镜像
docker pull kindest/node:v1.24.0

搭建多节点集群

如果期望通过Kind搭建多节点集群,可以通过配置文件实现。下面是创建一个包含2个控制平面节点、3个工作节点的K8s集群的配置文件。同时为了便于通过宿主机访问节点,还可以对部分端口进行映射

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
# Kind 创建K8s集群 配置文件

kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4

# 该集群包含2个控制平面节点、3个工作节点
nodes:
- role: control-plane
# 设置端口映射, 便于通过宿主机访问节点
extraPortMappings:
- containerPort: 80
hostPort: 8880
listenAddress: "127.0.0.1"
- containerPort: 443
hostPort: 8443
listenAddress: "127.0.0.1"
- role: control-plane
# 设置端口映射, 便于通过宿主机访问节点
extraPortMappings:
- containerPort: 80
hostPort: 9980
listenAddress: "127.0.0.1"
- containerPort: 443
hostPort: 9443
listenAddress: "127.0.0.1"
- role: worker
- role: worker
- role: worker

然后通过—config选项指定配置文件即可,具体创建集群的命令如下所示

1
2
# 使用my-k8s-cluster-3.yaml配置文件,创建一个名为 my-k8s-cluster-3 的K8s集群
kind create cluster --name my-k8s-cluster-3 --config my-k8s-cluster-3.yaml

效果如下所示,集群创建成功

figure 4.jpeg

上图我们发现工作节点的ROLES列显示为,只需给名为 node-role.kubernetes.io/worker 的标签打上相应的标签值即可

1
2
3
4
5
# 对指定节点添加名为node-role.kubernetes.io/worker的标签信息 
kubectl label node <节点名称> node-role.kubernetes.io/worker=<标签值>

# 对名为my-k8s-cluster-3-worker3的节点添加名为node-role.kubernetes.io/worker、值为worker的标签信息
kubectl label node my-k8s-cluster-3-worker3 node-role.kubernetes.io/worker=worker

效果如下所示

figure 5.jpeg

Note :这里多节点集群使用了2个控制平面节点,实际测试、开发的集群中最好只使用1个控制平面节点!!否则当Docker重启后,对于存在多个控制平面节点的集群而言,在0.14.0版本的Kind下有极大概率导致集群无法访问、使用,只能通过删除原异常集群、重建集群解决

部署K8s仪表盘Dashboard

Kubernetes还提供了一个基于Web的可视化管理页面——Dashboard。通过下述链接下载部署Dashboard的配置文件,并重命名为dashboard.yaml

1
2
# 部署 Dashboard 配置文件
https://raw.githubusercontent.com/kubernetes/dashboard/v2.5.0/aio/deploy/recommended.yaml

然后编写一个名为service-account-secret.yaml的配置文件,用于创建服务账户、绑定角色实现授权。与此同时,由于K8s 1.24版本开始,创建服务账户时,不再自动生成包含Token的Secret对象。故我们也需要在该配置文件一并创建该服务账户的Secret。完整配置文件如下所示

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
# 在kubernetes-dashboard命名空间下创建名为 admin-user 的服务账户
apiVersion: v1
kind: ServiceAccount
metadata:
name: admin-user
namespace: kubernetes-dashboard

---

# 将服务账户admin-user绑定到内置的ClusterRole集群角色cluster-admin上, 实现授权
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: admin-user
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: admin-user
namespace: kubernetes-dashboard

---

# 对名为admin-user的服务账户手动创建Secret
apiVersion: v1
kind: Secret
metadata:
name: admin-user-secret
namespace: kubernetes-dashboard
annotations:
kubernetes.io/service-account.name: admin-user
type: kubernetes.io/service-account-token

准备好上述两个配置文件后,依次通过kubectl apply命令应用。命令如下所示

1
2
3
4
5
# 部署 Dashboard
kubectl apply -f dashboard.yaml

# 创建服务账户并授权、创建Secret
kubectl apply -f service-account-secret.yaml

执行结果如下所示

figure 6.jpeg

我们通过service-account-secret.yaml配置文件,给kubernetes-dashboard命名空间下名为admin-user的服务账户手动创建了一个名为admin-user-secret的Secret。现在我们就可以通过该Secret获取相应的Token了。具体地,可以通过kubectl describe、kubectl get两种方式获取。但需要注意的是,前者显示是Token的原文,而后者则是对Token进行了Base64编码。此处我们需要拿到Token的原文,故推荐前者。无需进行Base64解码

1
2
3
4
5
# 该方式下 Token 为原文
kubectl describe secret admin-user-secret -n kubernetes-dashboard

# 该方式下 Token 使用了Base64编码
kubectl get secret admin-user-secret -n kubernetes-dashboard -o yaml

命令结果如下所示

figure 7.jpeg

现在,我们在本地启动K8s Proxy,命令如下所示

1
2
# 前台启动K8s代理, 占用终端窗口
kubectl proxy

至此,我们就可利用浏览器打开K8s Dashboard的页面地址了

1
2
# K8s Dashboard 页面地址
http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/

打开后,选择Token认证方式,并填写我们刚刚获得的Token即可登录进入

figure 8.jpeg

DashBoard可视化效果如下所示

figure 9.jpeg

命令

Kind基本命令

查看集群列表

1
kind get clusters

figure 10.png

删除指定集群

—name选项用于指定欲删除集群的名称

1
2
# 删除名为 my-k8s-cluster-2 的集群
kind delete cluster --name my-k8s-cluster-2

figure 11.jpeg

删除所有集群

—all用于指示删除所有集群

1
2
# 删除所有集群
kind delete clusters –all

figure 12.jpeg

kubectl基本命令

查看当前上下文

kubectl用于操作、管理K8s集群。故当存在多个集群的时候,我们需要确定当前操作的是哪个集群。即所谓的Context上下文。具体地,通过下列命令实现

1
2
# 查看 当前上下文信息
kubectl config current-context

figure 13.png

查看上下文列表

通过下述命令,可以查看全部的上下文列表

1
2
# 查看上下文列表、当前上下文信息
kubectl config get-contexts

效果如下所示。其中 CURRENT 列中标记为*星号的行,即为当前上下文。即正在操作的K8s集群;而NAME则表示上下文的名称

figure 14.jpeg

切换上下文

如果期望操作其他的集群。则只需将上下文切换到该集群的上下文即可

1
2
# 切换当前上下文
kubectl config use-context [上下文的名称]

效果如下所示

figure 15.jpeg

重命名上下文名称

同时还可以对上下文的名称进行重命名

1
2
# 将指定的上下文 修改为 新名称
kubectl config rename-context [上下文的原名称] [上下文的新名称]

效果如下所示

figure 16.jpeg

命令补全

由于kubectl的命令较长较复杂,故命令补全很有必要。这里以Oh-My-Zsh环境下进行说明,通过安装相应的插件实现命令补全

1. 下载插件

1
2
3
4
5
6
7
8
# 进入Oh-My-Zsh的plugins目录
cd ~/.oh-my-zsh/plugins/

# 在其下建立kubectl目录
mkdir kubectl

# 下载插件
wget https://d.frps.cn/file/kubernetes/oh-my-zsh/kubectl/kubectl.plugin.zsh

figure 17.jpeg

2. 使用插件

通过下述命令修改.zshrc文件,然后在plugins配置项中添加kubectl

1
2
# 修改.zshrc文件
vim ~/.zshrc

修改后如下所示

figure 18.jpeg

最后通过下述命令生效配置即可,此时即可实现kubectl命令补全

1
source ~/.zshrc

参考文献

  1. Kubernetes in Action中文版 Marko Luksa著
  2. 深入剖析Kubernetes 张磊著
0%