成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何為你的Kubernetes保駕護航

云計算
隨著Kubernetes的不斷發展,技術不斷成熟,越來越多的公司選擇把自家的應用部署到Kubernetes中。但是把應用部署到Kubernetes中就完事了嗎?

[[408253]]

隨著Kubernetes的不斷發展,技術不斷成熟,越來越多的公司選擇把自家的應用部署到Kubernetes中。但是把應用部署到Kubernetes中就完事了嗎?顯然不是,應用容器化只是萬里長征的第一步,如何讓應用安心、穩定的運行才是后續的所有工作。

這里主要從以下幾個方面來進行整理,對于大部分公司足夠使用。


Node

Node可以是物理主機,也可以是云主機,它是Kubernetes的載體。在很多時候我們并不太關心Node怎么樣了,除非其異常。但是作為運維人員,我們最不希望的就是異常,對于Node也是一樣。

Node節點并不需要做太多太復雜的操作,主要如下:

>內核升級

對于大部分企業,CentOS系統還是首選,默認情況下,7系列系統默認版本是3.10,該版本的內核在Kubernetes社區有很多已知的Bug,所以對節點來說,升級內核是必須的,或者企業可以選擇Ubuntu作為底層操作系統。

升級內核的步驟如下(簡單的升級方式):

  1. wget https://elrepo.org/linux/kernel/el7/x86_64/RPMS/kernel-lt-5.4.86-1.el7.elrepo.x86_64.rpm 
  2. rpm -ivh kernel-lt-5.4.86-1.el7.elrepo.x86_64.rpm 
  3. cat /boot/grub2/grub.cfg | grep menuentry 
  4. grub2-set-default 'CentOS Linux (5.4.86-1.el7.elrepo.x86_64) 7 (Core)' 
  5. grub2-editenv list 
  6. grub2-mkconfig -o /boot/grub2/grub.cfg 
  7. reboot 

>軟件更新

對于大部分人來說,更新軟件在很多情況下是不做的,因為害怕兼容問題。不過在實際生產中,對于已知有高危漏洞的軟件,我們還需要對其進行更新,這個可以針對處理。

>優化Docker配置文件

對于Docker的配置文件,主要優化的就是日志驅動、保留日志大小以及鏡像加速等,其他的配置根據情況而定,如下:

  1. cat > /etc/docker/daemon.json  << EOF 
  2.     "exec-opts": ["native.cgroupdriver=systemd"], 
  3.     "log-driver""json-file"
  4.     "log-opts": { 
  5.         "max-size""100m"
  6.         "max-file""10" 
  7.     }, 
  8.     "bip""169.254.123.1/24"
  9.     "oom-score-adjust": -1000, 
  10.     "registry-mirrors": ["https://pqbap4ya.mirror.aliyuncs.com"], 
  11.     "storage-driver""overlay2"
  12.     "storage-opts":["overlay2.override_kernel_check=true"], 
  13.     "live-restore"true 
  14. EOF 

>優化kubelet參數

對于K8S來講,kubelet是每個Node的組長,負責Node的"飲食起居",這里對它的參數配置主要如下:

  1. cat > /etc/systemd/system/kubelet.service <<EOF 
  2. [Unit] 
  3. Description=kubelet: The Kubernetes Node Agent 
  4. Documentation=https://kubernetes.io/docs/ 
  5.  
  6.  
  7. [Service] 
  8. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/pids/system.slice/kubelet.service 
  9. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/cpu/system.slice/kubelet.service 
  10. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/cpuacct/system.slice/kubelet.service 
  11. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/cpuset/system.slice/kubelet.service 
  12. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/memory/system.slice/kubelet.service 
  13. ExecStartPre=/usr/bin/mkdir -p /sys/fs/cgroup/systemd/system.slice/kubelet.service 
  14. ExecStart=/usr/bin/kubelet \ 
  15. --enforce-node-allocatable=pods,kube-reserved \ 
  16. --kube-reserved-cgroup=/system.slice/kubelet.service \ 
  17. --kube-reserved=cpu=200m,memory=250Mi \ 
  18. --eviction-hard=memory.available<5%,nodefs.available<10%,imagefs.available<10% \ 
  19. --eviction-soft=memory.available<10%,nodefs.available<15%,imagefs.available<15% \ 
  20. --eviction-soft-grace-period=memory.available=2m,nodefs.available=2m,imagefs.available=2m \ 
  21. --eviction-max-pod-grace-period=30 \ 
  22. --eviction-minimum-reclaim=memory.available=0Mi,nodefs.available=500Mi,imagefs.available=500Mi 
  23. Restart=always 
  24. StartLimitInterval=0 
  25. RestartSec=10 
  26.  
  27.  
  28. [Install] 
  29. WantedBy=multi-user.target 
  30. EOF 

其功能主要是為每個Node增加資源預留,可以在一定程度上防止Node宕機。

>日志配置管理

這里的日志配置管理針對的是系統日志,非自研應用日志。默認情況下,系統日志都不需要我們特殊配置,我這里提出來,主要是保障日志的可追溯。當系統因為某種原因被入侵,系統系統被刪除的情況下,還有日志提供給我們分析。

所以在條件允許的情況下,對Node節點的系統日志進行遠程備份是有必要的,可以采用rsyslog進行配置管理,日志可以保存到遠端的日志中心或者oss上。

>安全配置

安全配置這里涉及的不多,主要是針對已知的一些安全問題進行加固。主要有以下五種(當然還有更多,看自己的情況):

  • ssh密碼過期策略
  • 密碼復雜度策略
  • ssh登錄次數限制
  • 系統超時配置
  • 歷史記錄配置

Pod

Pod是K8S的最小調度單元,是應用的載體,它的穩定直接關乎應用本身,在部署應用的時候,主要考慮一下幾個方面。

>資源限制

Pod使用的是主機的資源,合理的資源限制可以有效避免資源超賣或者資源搶占問題。在配置資源限制的時候,要根據實際的應用情況來決定Pod的QoS,不同的QoS配置情況不一樣。

如果應用的級別比較高,建議配置Guaranteed級別配置,如下:

  1. resources: 
  2.   limits: 
  3.     memory: "200Mi" 
  4.     cpu: "700m" 
  5.   requests: 
  6.     memory: "200Mi" 
  7.     cpu: "700m" 

如果應用級別一般,建議配置Burstable級別,如下:

  1. resources: 
  2.   limits: 
  3.     memory: "200Mi" 
  4.     cpu: "500m" 
  5.   requests: 
  6.     memory: "100Mi" 
  7.     cpu: "100m" 

強烈不建議使用BestEffort類型的Pod。

>調度策略

調度策略也是根據情況來定,如果你的應用需要指定調度到某些節點,可以使用親和性調度,如下:

  1. affinity: 
  2.   nodeAffinity: 
  3.     preferredDuringSchedulingIgnoredDuringExecution: 
  4.       - preference: {} 
  5.         weight: 100 
  6.     requiredDuringSchedulingIgnoredDuringExecution: 
  7.       nodeSelectorTerms: 
  8.         - matchExpressions: 
  9.             - key: env 
  10.               operator: In 
  11.               values
  12.                 - uat 

如果一個節點只允許某一個應用調度,這時候就需要用到污點調度了,也就是先給節點打污點,然后需要調度到該節點的Pod需要容忍污點。最穩妥的方式是標簽+污點相結合。如下:

  1. tolerations: 
  2. key"key1"          #能容忍的污點key 
  3.   operator: "Equal"    #Equal等于表示key=value , Exists不等于,表示當值不等于下面value正常 
  4.   value: "value1"      #值 
  5.   effect: "NoExecute"  #effect策略 
  6.   tolerationSeconds: 3600  #原始的pod多久驅逐,注意只有effect: "NoExecute"才能設置,不然報錯 

當然,除了Pod和Node的關聯,還有Pod和Pod之間的關聯,一般情況下,為了達到真正的高可用,我們不建議同一個應用的Pod都可以調度到同一個節點,所以我們需要給Pod做反親和性調度,如下:

  1. affinity: 
  2.   podAntiAffinity: 
  3.     requiredDuringSchedulingIgnoredDuringExecution: 
  4.     - labelSelector: 
  5.         matchExpressions: 
  6.         - key: app 
  7.           operator: In 
  8.           values
  9.           - store 
  10.       topologyKey: "kubernetes.io/hostname" 

如果某個應用親和其他應用,則可以使用親和性,這樣可以在一定程度上降低網絡延遲,如下:

  1. affinity: 
  2.   podAffinity: 
  3.     requiredDuringSchedulingIgnoredDuringExecution: 
  4.     - labelSelector: 
  5.         matchExpressions: 
  6.         - key: security 
  7.           operator: In 
  8.           values
  9.           - S1 
  10.       topologyKey: failure-domain.beta.kubernetes.io/zone 

>優雅升級

Pod默認是采用的滾動更新策略,我們關注點主要在新的Pod起來后,老的Pod如何能優雅的處理流量,對外界是無感的。

最簡單的方式是"睡幾秒",這種方式并不能保證百分百的優雅處理流量,方式如下:

  1. lifecycle: 
  2.   preStop: 
  3.     exec
  4.       command: 
  5.       - /bin/sh 
  6.       - -c 
  7.       - sleep 15 

如果有注冊中心,可以在退出的時候先把原服務從注冊中心下線再退出,比如這里使用的nacos作為注冊中心,如下:

  1. lifecycle: 
  2.   preStop: 
  3.     exec
  4.       command: 
  5.         - /bin/sh 
  6.         - -c 
  7.         - "curl -X DELETE your_nacos_ip:8848/nacos/v1/ns/instance?serviceName=nacos.test.1&ip=${POD_IP}&port=8880&clusterName=DEFAULT" && sleep 15 

>探針配置

探針重要嗎?重要!它是kubelet判斷Pod是否健康的重要依據。

Pod的主要探針有:

  • livenessProbe
  • readinessProbe
  • startupProbe

其中startupProbe是v1.16版本后才新增的探針,其主要針對啟動時間較長的應用,在多數情況下只需要配置livenessProbe和readinessProbe即可。

通常情況下,一個Pod就代表一個應用,所以在配置探針的時候最好能直接反應應用是否正常,很多框架都帶有健康檢測功能,我們在配置探針的時候可以考慮使用這些健康檢測功能,如果框架沒有,也可以考慮讓開發人員統一開發一個健康檢測接口,這樣便于標準化健康檢測。如下:

  1. readinessProbe: 
  2.   failureThreshold: 3 
  3.   httpGet: 
  4.     path: /health 
  5.     port: http 
  6.     scheme: HTTP 
  7.   initialDelaySeconds: 40 
  8.   periodSeconds: 10 
  9.   successThreshold: 1 
  10.   timeoutSeconds: 3 
  11. livenessProbe: 
  12.   failureThreshold: 3 
  13.   httpGet: 
  14.     path: /health 
  15.     port: http 
  16.     scheme: HTTP 
  17.   initialDelaySeconds: 60 
  18.   periodSeconds: 10 
  19.   successThreshold: 1 
  20.   timeoutSeconds: 2 

如果需要配置startupProbe,則可以如下配置:

  1. startupProbe: 
  2.   httpGet: 
  3.     path: /health 
  4.     prot: 80 
  5.   failureThreshold: 10 
  6.   initialDelay:10 
  7.   periodSeconds: 10 

>保護策略

這里的保護策略主要是指在我們主動銷毀Pod的時候,通過保護策略來控制Pod的運行個數。

在K8S中通過PodDisruptionBudget(PDB)來實現這個功能,對于一些重要應用,我們需要為其配置PDB,如下:

  1. apiVersion: policy/v1beta1 
  2. kind: PodDisruptionBudget 
  3. metadata: 
  4.   name: pdb-demo 
  5. spec: 
  6.   minAvailable: 2 
  7.   selector: 
  8.     matchLables: 
  9.       app: nginx 

在PDB中,主要通過兩個參數來控制Pod的數量:

  • minAvailable:表示最小可用Pod數,表示在Pod集群中處于運行狀態的最小Pod數或者是運行狀態的Pod數和總數的百分比;
  • maxUnavailable:表示最大不可用Pod數,表示Pod集群中處于不可用狀態的最大Pod數或者不可用狀態Pod數和總數的百分比;

注意:minAvailable和maxUnavailable是互斥了,也就是說兩者同一時刻只能出現一種。

日志

日志會貫穿應用的整個生命周期,在排查問題或者分析數據的時候,日志都不可缺少。對于日志,這里主要從以下方面進行分析。

>日志標準

日志一般分為業務日志和異常日志,對于日志,我們不希望其太復雜,也不希望其太簡單,更多的是希望通過日志達到如下目標:

  1. 對程序運行情況的記錄和監控;
  2. 在必要時可詳細了解程序內部的運行狀態;
  3. 對系統性能的影響盡量小;

那日志標準如何定義呢?我這里簡單整理以下幾點:

  • 合理使用日志分級
  • 統一輸出格式
  • 代碼編碼規范
  • 日志輸出路徑統一
  • 日志輸出命名規范統一

這樣規定的主要目的是便于收集和查看日志。

>收集

針對不同的日志輸出有不同的日志收集方案,主要有以下二種:

  • 在Node上部署Logging Agent進行收集
  • 在Pod中以Sidecar形式進行收集

在Node上部署Logging Agent進行收集

這種日志收集方案主要針對已經標準輸出的日志,架構如下:

對于非標準輸出的日志就沒辦法進行收集。

在Pod中以Sidecar形式進行收集

這種收集方案主要針對非標準輸出的日志,可以在Pod中以sidecar的方式運行日志收集客戶端,將日志收集到日志中心,架構如下:

不過這種方式比較浪費資源,所以最理想的情況就是把應用日志都標準輸出,這樣收集起來比較簡單。

>分析

在業務正常的情況下,我們其實很少去查看日志內容,只有在出問題的時候才會借助日志分析問題(大部分情況下都是這樣),那為什么我這里要把分析提出來呢?

日志其實承載了很多信息,如果能對日志進行有效分析,可以幫助我們識別、排查很多問題,比如阿里云的日志中心,在日志分析方面做的就很不錯。

>告警

日志告警,可以讓我們快速知道問題,也縮小了故障排查范圍。不過要做日志告警就必須做好日志“關鍵字”管理,也就是要確定某一個關鍵字能夠準確的代表一個問題,最好不出現泛指的現象,這樣做的好處就是能夠讓告警更加準備,而不是出現一些告警風暴或者無效告警,久而久之就麻木了。

監控

集群、應用等的生命周期里離不開監控系統,有效的監控系統可以為我們提供更高的可觀測性,方便我們線性的分析問題,排查問題以及定位問題,再配上有效的告警通知,也方便我們能快速的知道問題。

對于監控,主要從以下幾個方面進行介紹。

>集群監控

對于K8S集群以及跑在K8S應用來說,普遍使用Prometheus來進行監控。整個集群的穩定性關乎著應用的穩定性,所以對集群的監控至關重要,下面簡單列舉了一些監控項,在實際的工作中酌情處理。

>應用監控

在很多企業中,并沒有接入應用監控,主要還是沒有在應用中集成監控指標,導致無法監控,所以在應用開發的時候就強烈建議開發將應用監控加上,將指標按prometheus標準格式暴露出來。

除了開發人員主動暴露指標外,我們也可以通過javaagent方式配置一些exporter,用來抓取一些指標,比如jvm監控指標。

在應用級別做監控,可以將監控粒度更細化,這樣可以更容易發現問題。我這里簡單整理了一些應用監控項,如下:

這些監控項都有對于的exporter來完成,比如redis中間件有redis-exporter,api監控有blcakbox-exporter等。

>事件監控

在Kubernetes中,事件分為兩種,一種是Warning事件,表示產生這個事件的狀態轉換是在非預期的狀態之間產生的;另外一種是Normal事件,表示期望到達的狀態,和目前達到的狀態是一致的。

事件大多數情況下表示正在發生或者已經發生的事,在實際工作中很容易就忽略這類信息,所以我們有必要借助事件監控來規避這類問題。

在K8S中,常用的事件監控是kube-eventer,它可以收集pod/node/kubelet等資源對象的event,還可以收集自定義資源對象的event,然后將這類信息發送到相關人員。

通過事件,我們主要關注的監控項如下:

>鏈路監控

正常情況下,K8S中的應用是單獨的個體存在,彼此之間沒有顯性的聯系,這時候就需要一種手段,將應用間的關系表現出來,方便我們跟蹤分析整個鏈路的問題。

目前比較流行的鏈路監控工具有很多,我這邊主要是使用skywalking進行鏈路監控,其主要agent端比較豐富,也提供了很高的自擴展能力,有興趣的朋友可以了解一下。

通過鏈路監控,主要達到以下目的。

>告警通知

很多人會忽略告警通知,覺得告警就行。但是在做告警通知的時候還是需要仔細去考慮的。

如下簡單整理一下關注點。

個人覺得難點在于哪些指標需要告警。我們在選取指標的時候一定要遵循以下規則:

  • 告警的指標具有唯一性
  • 告警的指標能正確反應問題
  • 所暴露的問題是需要介入解決的

綜合這些規則考慮,才方便我們選取需要的指標。

第二就是緊急程度分類,這個主要是根據這個告警指標所暴露出來的問題是不是需要我們及時去解決,還有影響范圍來綜合衡量。

故障升級主要是針對需要解決的問題沒有解決而做的一種策略,提高故障等級,也相當于提高了緊急程度了。通知渠道分類主要是方便我們區分不同的告警,還有如果能快速接收到告警信息。

寫在最后

上面寫的都是一些基礎的操作,對于YAML工程師來說,算是必備的技能儲備,這一套放到大部分公司都是適用的。

本文轉載自微信公眾號「 運維開發故事」,可以通過以下二維碼關注。轉載本文請聯系 運維開發故事公眾號。

 

責任編輯:姜華 來源: 運維開發故事
相關推薦

2021-07-14 13:30:44

KubernetesLinux文件

2011-08-25 13:27:07

2018-01-23 11:10:09

2013-01-10 11:32:12

阿里云雙十一云計算

2020-10-27 09:00:39

數據保護DPaaS云服務

2017-03-21 16:03:25

2009-09-05 12:16:10

2022-02-10 13:57:26

5G無線通信VR/AR

2014-07-01 10:07:56

2014-09-04 09:18:15

2020-03-26 14:09:03

網絡安全疫情技術

2013-11-18 10:44:51

雙11電商 CDN

2013-10-24 06:51:24

2012-11-13 18:24:03

LinOTPApache2一次性密碼

2019-12-16 16:30:19

網易游戲AWSre:Invent

2015-08-19 10:06:21

2012-09-12 09:40:36

云服務GIS技術彈性云計算

2019-01-30 09:10:32

人工智能互聯網圖片識別

2009-12-09 10:48:08

2019-12-12 09:45:49

Docker容器漏洞攻擊
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久草免费在线视频 | 日韩电影中文字幕 | 欧美精品一二三 | 欧美一级黄色片在线观看 | 国产成人免费 | 自拍亚洲 | 2022国产精品 | 国产精品美女久久久久久免费 | 草草视频在线播放 | 午夜在线影院 | 成人欧美一区二区三区白人 | 久久爱综合| 久久精品一区 | 亚洲欧美中文字幕在线观看 | 久久国产精品视频 | 欧美日韩国产在线观看 | 欧美一级特黄aaa大片在线观看 | 国产在线精品一区二区三区 | 欧美在线视频一区二区 | 亚洲精品久久嫩草网站秘色 | 天天射色综合 | 亚洲福利在线视频 | 久久精品91久久久久久再现 | 日本国产一区二区 | 美国av片在线观看 | 亚洲欧美综合 | a免费观看| 欧美三级成人理伦 | 成人国产在线视频 | 91在线影院| 亚洲欧美网站 | 亚洲综合大片69999 | 日韩久久久久 | 日韩五月天 | 一级日批片 | 国产乱码精品1区2区3区 | 欧美精品一区在线发布 | 激情五月激情综合网 | av电影一区 | 欧美色综合 | 欧美一级二级视频 |