成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Kubernetes集群搭建全攻略:從零到Hero

云計算 云原生
本文將帶你一步步了解如何準備環境、配置服務器以及最終創建一個功能齊全的Kubernetes集群。

最近想學學k8s,但是網上的資料一言難盡,各種互抄錯誤的文章,只在第一步——安裝,就遇到了很大問題,讓人望而卻步。本文將帶你一步步了解如何準備環境、配置服務器以及最終創建一個功能齊全的Kubernetes集群。

1. 準備工作

環境要求

推薦準備3臺服務器(or 虛擬機),搭建一主兩從架構

  • 服務器要求(Master/Node 節點):

最低 2 核 CPU

2GB 以上內存(最好4GB)

20GB 以上磁盤空間(建議最少40GB,20GB只夠k8s本身的基礎服務)

服務器環境配置

?? 注意:下方操作必須在所有節點都執行一遍

修改主機名(建議)

每個節點執行一個

hostnamectl set-hostname master

hostnamectl set-hostname node1

hostnamectl set-hostname node2

關閉 swap(必須)

swapoff -a
sed -i '/swap/d' /etc/fstab

Kubernetes 需要確保調度的 Pod 運行在資源可預測的環境下,而 swap(交換空間)可能導致內存分配不穩定。因此,Kubernetes 要求禁用 swap,保證節點上的內存管理更加穩定。

關閉防火墻(可選)

建議關閉以避免端口問題

systemctl stop firewalld && systemctl disable firewalld

配置內核參數(必須)

cat <<EOF | tee /etc/modules-load.d/k8s.conf
overlay
br_netfilter
EOF

modprobe overlay
modprobe br_netfilter

cat <<EOF | tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-iptables  = 1
net.bridge.bridge-nf-call-ip6tables = 1
net.ipv4.ip_forward                 = 1
EOF

sysctl --system

br_netfilter必須配置,否則 Kubernetes 的網絡流量管理可能無法正常工作。

作用

  1. br_netfilter 讓 Linux 處理橋接網絡流量時應用 iptables 規則
  • Kubernetes 依賴 iptables 進行網絡策略、NAT 和轉發規則的管理。默認情況下,Linux 不會對網橋流量(bridge traffic)應用 iptables 規則,因此需要手動啟用。
  1. 啟用 IPv4 轉發
  • 默認情況下,Linux 可能不允許 IPv4 轉發(net.ipv4.ip_forward=1)。但 Kubernetes 依賴 IP 轉發功能,確保 Pod 網絡可以跨節點通信。

配置containerd(建議)

?? 注意:如果用containerd作為k8s的容器,必須配置

  • 確保主機已經安裝了containerd,并確保 containerd 正在運行
systemctl status containerd

如果沒有安裝,可以參考如下文章,安裝完docker之后,會自帶containerd,并且服務器使用Docker的情況較多,推薦直接安裝docker

  • 修改 containerd 配置文件

生成默認配置

containerd config default | tee /etc/containerd/config.toml

**編輯 /etc/containerd/config.toml**:

vi /etc/containerd/config.toml
  1. 找到并修改如下內容:
  • sandbox_image = "k8s.gcr.io/pause:3.8"修改成 sandbox_image = "registry.k8s.io/pause:3.10"
  • k8s 版本為1.32.2,對應  pause:3.10
  • 啟用 CRI 插件(確保 [plugins."io.containerd.grpc.v1.cri"] 沒有被注釋)
  • 修改 SystemdCgroup = true(重要!否則 K8s 可能不兼容)
  • 修改 sandbox_image
  • 在如下位置
[plugins."io.containerd.grpc.v1.cri"]
  ...
  sandbox_image = "registry.k8s.io/pause:3.10"
  [plugins."io.containerd.grpc.v1.cri".containerd]
    default_runtime_name = "runc"
    [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc]
      runtime_type = "io.containerd.runc.v2"
      [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.runc.options]
        SystemdCgroup = true

重啟 containerd

systemctl restart containerd

配置 crictl.yaml(必須)

需要手動指定 containerd 的 CRI socket,配置 containerd 連接k8s

創建或編輯 /etc/crictl.yaml 文件:

cat <<EOF | tee /etc/crictl.yaml
runtime-endpoint: "unix:///run/containerd/containerd.sock"
EOF

重啟 containerd

systemctl restart containerd

2.安裝kubeadm

Master 節點需要安裝 kubeadmkubeletkubectl

Node 節點,需要安裝 kubeadmkubelet

安裝 kubeadmkubeletkubectl(確保版本一致):

以下指令適用于 Kubernetes 1.32

  • 更新 apt 包索引并安裝使用 Kubernetes apt 倉庫所需要的包
# 更新軟件包索引
sudo apt-get update
# apt-transport-https 可能是一個虛擬包(dummy package);如果是的話,你可以跳過安裝這個包
sudo apt-get install -y apt-transport-https ca-certificates curl gpg
  • 下載用于 Kubernetes 軟件包倉庫的公共簽名密鑰。所有倉庫都使用相同的簽名密鑰,因此你可以忽略URL中的版本:
# 如果 `/etc/apt/keyrings` 目錄不存在,則應在 curl 命令之前創建它
# sudo mkdir -p -m 755 /etc/apt/keyrings
curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.32/deb/Release.key | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg
  • 添加 Kubernetes apt 倉庫。請注意,此倉庫僅包含適用于 Kubernetes 1.32 的軟件包;對于其他 Kubernetes 次要版本,則需要更改 URL 中的 Kubernetes 次要版本以匹配你所需的次要版本
# 此操作會覆蓋 /etc/apt/sources.list.d/kubernetes.list 中現存的所有配置。
echo 'deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.32/deb/ /' | sudo tee /etc/apt/sources.list.d/kubernetes.list
  • 更新 apt 包索引,安裝 kubelet、kubeadm 和 kubectl,并鎖定其版本:

Master節點需要安裝 kubectl

# Master節點
sudo apt-get update
sudo apt-get install -y kubelet kubeadm kubectl

# 鎖定版本
sudo apt-mark hold kubelet kubeadm kubectl

node節點不需要安裝 kubectl

sudo apt-get update
sudo apt-get install -y kubelet kubeadm

# 鎖定版本
sudo apt-mark hold kubelet kubeadm

3. 使用 kubeadm 創建集群

 注意:此操作只需要在Master節點執行

一、創建kubeadm-config.yaml 配置文件,寫入如下內容:

# k8s 集群配置
apiVersion:kubeadm.k8s.io/v1beta4
kind:ClusterConfiguration
# 安裝的 Kubernetes 版本
kubernetesVersion:1.32.0
# 單主節點可修改為主節點的 IP,端口不要修改
# 多主節點 應設置為 VIP 或負載均衡地址
controlPlaneEndpoint:192.168.204.128:6443
networking:
# 指定pod網段
podSubnet:10.244.0.0/16
# 指定Service網段
serviceSubnet:10.96.0.0/12

etcd:
local:
    dataDir:"/var/lib/etcd"

controllerManager:{}
scheduler:{}

---
# kubeadm 初始化配置
apiVersion:kubeadm.k8s.io/v1beta4
kind:InitConfiguration
#  控制當前 master 節點上的 kube-apiserver 監聽 IP 和端口,只影響當前節點。
localAPIEndpoint:
# 設為當前master節點ip地址
advertiseAddress:192.168.204.128
bindPort:6443
nodeRegistration:
# 你的主節點名稱
name:"master"
# containerd 的默認 socket
criSocket:"unix:///run/containerd/containerd.sock"
taints:null

---
apiVersion:kubelet.config.k8s.io/v1beta1
kind:KubeletConfiguration
cgroupDriver:"systemd"

---
# kube-proxy 配置
apiVersion:kubeproxy.config.k8s.io/v1alpha1
kind:KubeProxyConfiguration
# 采用 IPVS 模式(更高效)
mode:"ipvs"

二、使用配置文件,初始化集群

初始化集群之前,可以先執行預檢,檢驗環境是否還有其他問題。

kubeadm init phase preflight --config kubeadm-config.yaml

會提示你可以先將k8s需要的鏡像拉取下來

kubeadm config images pull

如果沒有問題了,就可以執行初始化命令,初始化集群

kubeadm init --config=kubeadm-config.yaml --upload-certs

之后就可以看到執行成功的命令

而且他還提示你接下來需要執行的操作

圖片圖片

圖片圖片

4. 完成k8s集群搭建

接下來,你需要完成 幾個關鍵步驟 來讓 Kubernetes 集群正常工作:

1)配置 kubectl 訪問集群

配置kubectl的配置文件,相當于對kubectl進行授權,這樣kubectl命令可以使用此證書對k8s集群進行管理 所有控制節點創建成功后 均執行此命令

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

然后測試 kubectl 是否能正常連接集群:

kubectl get nodes

如果輸出 NotReady,表示還需要部署 網絡插件

例:

root@master:~# export KUBECONFIG=/etc/kubernetes/admin.conf
root@master:~# kubectl get nodes
NAME     STATUS     ROLES           AGE     VERSION
master   NotReady   control-plane   6m10s   v1.32.2

2)部署 Pod 網絡插件

Kubernetes 默認不包含 CNI(容器網絡接口)插件,你需要選擇一個來管理 Pod 網絡。

選擇使用 Calico 網絡插件,相比于 Flannel 更高效

這里k8s 集群的版本是 v1.32.2,對應 Calico 的版本是 v3.29.2

其他版本對照參照:System requirements | Calico Documentation

文件地址是 https://raw.githubusercontent.com/projectcalico/calico/<版本號>/manifests/calico.yaml

wget -O calico.yaml https://raw.githubusercontent.com/projectcalico/calico/v3.29.2/manifests/calico.yaml

kubectl apply -f calico.yaml

之后,檢查網絡插件是否正常運行:

kubectl get pods -n kube-system

等待 calico-node 的 Pod 變為 Running 狀態。

狀態變化:Pending --> Init:0/3 --> Running ;這個過程可能需要數分鐘時間

3) 添加Node節點

確保已經在 Node 節點上安裝了 kubelet 和 kubeadm,并且 kubelet 是自啟動的

sudo systemctl enable --now kubelet

在 192.168.204.129 和 192.168.204.130 分別執行如下命令,就是在Master節點安裝完成之后提示的命令

kubeadm join 192.168.204.128:6443 --token emjun9.wvgusblbismxmczb \
      --discovery-token-ca-cert-hash sha256:93811b04fda229a7560da0473bae1515d4f54f3f6ac9c074177e90b249ab46be

如果沒有保存命令,可以在master節點執行命令,重新生成

kubeadm token create --print-join-command

4. 驗證集群是否正常運行

執行以下命令,確認所有節點和組件都 Ready

kubectl get nodes
kubectl get pods -n kube-system

如果所有 Node 變成 Ready,并且 kube-system 里的 Pod 狀態都變為 Running,說明 Kubernetes 集群已經完全運行 ??!

剛加入集群時,可能會有 calico-node 在初始化狀態中,等待即可

完成后,你的 Kubernetes 集群就有 1 Master + 2 Node,正式可用了! 

可選

root@master:~# kubectl get nodes
NAME     STATUS   ROLES           AGE     VERSION
master   Ready    control-plane   33m     v1.32.2
node1    Ready    <none>          12s     v1.32.2
node2    Ready    <none>          2m58s   v1.32.2

node1 和 node2 在 kubectl get nodes 輸出中,ROLES 顯示為空,這是正常的,只是它們還沒有被賦予特定的角色

默認情況下,kubeadm join 只是將它們加入集群為 Worker 節點,并不會自動分配角色。節點可以正常運行 Pod,不會影響集群功能。

如果你希望 kubectl get nodes 結果中顯示 worker,可以給 node1 和 node2 添加 worker 角色:

kubectl label node node1 node-role.kubernetes.io/worker=
kubectl label node node2 node-role.kubernetes.io/worker=

然后再運行:

kubectl get nodes

現在 ROLES 列會顯示 worker

責任編輯:武曉燕 來源: Java技術指北
相關推薦

2025-04-02 09:33:01

2024-10-25 15:25:42

2023-12-18 09:32:08

ES集群遷移上云oss插件

2010-04-23 14:04:23

Oracle日期操作

2024-05-07 09:01:21

Queue 模塊Python線程安全隊列

2013-04-15 10:48:16

Xcode ARC詳解iOS ARC使用

2013-06-08 11:13:00

Android開發XML解析

2020-03-05 09:53:59

ElasticSearLuceneJava

2025-05-28 08:45:00

2009-02-20 11:43:22

UNIXfish全攻略

2009-12-14 14:32:38

動態路由配置

2014-03-19 17:22:33

2009-10-19 15:20:01

家庭綜合布線

2018-11-12 11:09:24

2009-10-12 15:06:59

2015-03-04 13:53:33

MySQL數據庫優化SQL優化

2009-07-04 11:26:12

unix應急安全攻略

2022-10-21 11:30:42

用戶生命周期分析

2020-12-28 10:50:09

Linux環境變量命令

2010-10-11 13:54:03

Windows Ser
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久电影一区 | 日本免费在线观看视频 | 91精品国模一区二区三区 | 一区观看| 日韩精品1区2区 | 久久91av | 日本在线免费看最新的电影 | 成人精品一区二区 | 综合欧美亚洲 | 欧美一区二区三区视频在线播放 | 国产精品成人一区二区三区吃奶 | 欧美精品国产精品 | 99这里只有精品 | 亚洲午夜av| 久久久久国产精品午夜一区 | 91精品久久久久 | 亚洲专区在线 | aaaaaaa片毛片免费观看 | 欧美簧片 | 久久伊人精品 | 久久亚洲天堂 | 中文字幕欧美日韩一区 | 久久久久国产 | 男人午夜视频 | 美女视频h | 特a毛片 | 在线看片网站 | 天堂久久av | 国产高清精品一区 | 午夜久久久久久久久久一区二区 | 久久久国产一区二区三区 | 午夜理伦三级理论三级在线观看 | 91在线视频观看 | 亚洲日韩中文字幕一区 | 九九国产在线观看 | 久久久久久久国产 | 日日夜夜天天综合 | 亚洲激情视频在线 | 日韩黄a| 久久乐国产精品 | www.亚洲|