国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

重新分配pod節點

馬哥Linux運維 ? 來源:馬哥Linux運維 ? 2025-01-02 09:17 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1、軟件包下載

去github上下載較新的Kubernetes軟件包https://github.com/

757fc43a-c5dc-11ef-9310-92fbcf53809c.png

759ae526-c5dc-11ef-9310-92fbcf53809c.png

75b2c056-c5dc-11ef-9310-92fbcf53809c.png

75d0f29c-c5dc-11ef-9310-92fbcf53809c.png

75e47290-c5dc-11ef-9310-92fbcf53809c.png

75eb4e9e-c5dc-11ef-9310-92fbcf53809c.png

2、升級說明

升級包括master節點升級和node節點的升級,本章升級至v1.15.12;

Master節點的服務包括:apiserver、controller-manager、kube-scheduler;

Node節點的服務包括:kubelet和kube-proxy;

由于apiserver被nginx代理,所以在升級的時候需要操作操作nginx注釋升級節點,避免帶來無法訪問的情況;

我們的master節點和node都是在同一個集群服務器上,所以一起進行操作;

3、確定節點升級順序

查看節點信息

[root@hdss7-21 ~]# kubectl get node
NAME                STATUS   ROLES    AGE   VERSION
hdss7-21.host.com   Ready       14d   v1.14.10
hdss7-22.host.com   Ready       14d   v1.14.10

查看pod分布狀態,盡量選擇較少pod的節點先進行遷移

[root@hdss7-21 ~]# kubectl get pod -o wide -n kube-system
NAME                                   READY   STATUS    RESTARTS   AGE   IP           NODE                NOMINATED NODE   READINESS GATES
coredns-64f49f5655-smzzz               1/1     Running   6          8d    172.7.21.4   hdss7-21.host.com              
kubernetes-dashboard-99ff79fcd-khl8z   1/1     Running   2          4d    172.7.22.4   hdss7-22.host.com              
traefik-ingress-2svq6                  1/1     Running   3          5d    172.7.21.5   hdss7-21.host.com              
traefik-ingress-rcd28                  1/1     Running   3          5d    172.7.22.3   hdss7-22.host.com              

由于分布差不多,我們選擇先升級10.4.7.21服務器上的節點

4、修改代理nginx配置

在10.4.7.21和22上都操作,以21為例
注釋apiserver升級節點的服務器

[root@hdss7-11 ~]# vim /etc/nginx/nginx.conf
    upstream kube-apiserver {
#        server 10.4.7.21:6443     max_fails=3 fail_timeout=30s;
        server 10.4.7.22:6443     max_fails=3 fail_timeout=30s;
    }
[root@hdss7-11 ~]# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
[root@hdss7-11 ~]# nginx -s reload

5、刪除第一個節點

將節點調成不可調度狀態

[root@hdss7-21 ~]#  kubectl cordon hdss7-21.host.com
node/hdss7-21.host.com cordoned

當節點設置成不可調度狀態之后,新啟動的 pod 不會調度到此節點上,但是該節點上正在運行的 Pod 將不會被影響。
驅逐節點上的pod

[root@hdss7-21 ~]# kubectl drain hdss7-21.host.com --delete-local-data --ignore-daemonsets --force
node/hdss7-21.host.com already cordoned
WARNING: ignoring DaemonSet-managed Pods: default/nginx-ds-2rj9d, kube-system/traefik-ingress-2svq6
evicting pod "coredns-64f49f5655-smzzz"
evicting pod "nginx-dp-86678bb55c-tklvc"
pod/nginx-dp-86678bb55c-tklvc evicted
pod/coredns-64f49f5655-smzzz evicted
node/hdss7-21.host.com evicted

注釋:
--delete-local-data 即使pod使用了emptyDir也刪除 --ignore-daemonsets 忽略deamonset控制器的pod,如果不忽略,daemonset控制器控制的pod被刪除后可能馬上又在此節點上啟動起來,會成為死循環;--force 不加force參數只會刪除該NODE上由ReplicationController, ReplicaSet, DaemonSet,StatefulSet or Job創建的Pod,加了后還會刪除'裸奔的pod'(沒有綁定到任何replication controller)

再次查看pod分布

[root@hdss7-21 ~]# kubectl get pod -o wide -n kube-system
NAME                                   READY   STATUS    RESTARTS   AGE   IP           NODE                NOMINATED NODE   READINESS GATES
coredns-64f49f5655-n2pl7               1/1     Running   0          39s   172.7.22.7   hdss7-22.host.com              
kubernetes-dashboard-99ff79fcd-khl8z   1/1     Running   2          4d    172.7.22.4   hdss7-22.host.com              
traefik-ingress-2svq6                  1/1     Running   3          5d    172.7.21.5   hdss7-21.host.com              
traefik-ingress-rcd28                  1/1     Running   3          5d    172.7.22.3   hdss7-22.host.com              

除了daemonset的pod已被移動到10.4.7.22接節點上

測試重新啟動的coredns是否生效

[root@hdss7-21 ~]# dig -t A nginx-dp.default.svc.cluster.local @192.168.0.2 +short
192.168.191.8

刪除節點

[root@hdss7-21 ~]# kubectl delete node hdss7-21.host.com
node "hdss7-21.host.com" deleted

6、升級第一個節點

配置新版本

[root@hdss7-21 ~]# cd /opt/src/
[root@hdss7-21 src]# tar -zxvf kubernetes-server-linux-amd64-v1.15.12.tar.gz
[root@hdss7-21 src]# mv kubernetes /opt/kubernetes-v1.15.12
[root@hdss7-21 src]# cd /opt/kubernetes-v1.15.12/
[root@hdss7-21 kubernetes-v1.15.12]# rm -f kubernetes-src.tar.gz
[root@hdss7-21 kubernetes-v1.15.12]# cd server/bin/
[root@hdss7-21 bin]# rm -f *.tar *_tag
[root@hdss7-21 bin]# ll
總用量 677292
-rwxr-xr-x 1 root root  50581504 6月  16 21:10 apiextensions-apiserver
-rwxr-xr-x 1 root root  44638208 6月  16 21:10 kubeadm
-rwxr-xr-x 1 root root  48525312 6月  16 21:10 kube-aggregator
-rwxr-xr-x 1 root root 122097664 6月  16 21:10 kube-apiserver
-rwxr-xr-x 1 root root 116301824 6月  16 21:10 kube-controller-manager
-rwxr-xr-x 1 root root  46419968 6月  16 21:10 kubectl
-rwxr-xr-x 1 root root  54980712 6月  16 21:10 kubectl-convert
-rwxr-xr-x 1 root root 118151728 6月  16 21:10 kubelet
-rwxr-xr-x 1 root root  43139072 6月  16 21:10 kube-proxy
-rwxr-xr-x 1 root root  47112192 6月  16 21:10 kube-scheduler
-rwxr-xr-x 1 root root   1593344 6月  16 21:10 mounter
[root@hdss7-21 bin]# mkdir certs
[root@hdss7-21 bin]# mkdir /opt/kubernetes-v1.15.12/conf

拷貝證書

[root@hdss7-21 bin]# cp /opt/kubernetes/server/bin/certs/* certs/
[root@hdss7-21 bin]# ls certs/
apiserver-key.pem  ca-key.pem  client-key.pem  kubelet-key.pem  kube-proxy-client-key.pem
apiserver.pem      ca.pem      client.pem      kubelet.pem      kube-proxy-client.pem

拷貝服務啟動腳本

[root@hdss7-21 bin]# cp /opt/kubernetes/server/bin/*.sh .
[root@hdss7-21 bin]# ls
apiextensions-apiserver  kube-apiserver                      kubectl             kube-proxy                 mounter
certs                    kube-apiserver-startup.sh           kubectl-convert     kube-proxy-startup.sh
kubeadm                  kube-controller-manager             kubelet             kube-scheduler
kube-aggregator          kube-controller-manager-startup.sh  kubelet-startup.sh  kube-scheduler-startup.sh

拷貝配置文件

[root@hdss7-21 bin]# cp /opt/kubernetes/conf/* /opt/kubernetes-v1.15.12/conf/
[root@hdss7-21 bin]# ls /opt/kubernetes-v1.15.12/conf/
audit.yaml  k8s-node.yaml  kubelet.kubeconfig  kube-proxy.kubeconfig  nginx-ds.yaml

重新創建軟連接

[root@hdss7-21 bin]# cd /opt/
[root@hdss7-21 opt]# ll
總用量 24
drwx--x--x 4 root root 4096 7月   2 21:50 containerd
lrwxrwxrwx 1 root root   16 6月   8 20:36 etcd -> /opt/etcd-v3.3.1
drwxr-xr-x 5 etcd etcd 4096 7月   9 21:25 etcd-v3.3.1
lrwxrwxrwx 1 root root   20 7月  17 19:40 flannel -> /opt/flannel-v0.11.0
drwxr-xr-x 3 root root 4096 7月  28 20:05 flannel-v0.11.0
lrwxrwxrwx 1 root root   23 7月  10 20:17 kubernetes -> /opt/kubernetes-v1.14.10
drwxr-xr-x 5 root root 4096 7月  10 20:36 kubernetes-v1.14.10
drwxr-xr-x 6 root root 4096 7月  28 22:18 kubernetes-v1.15.12
drwxr-xr-x 2 root root 4096 7月  28 22:10 src
[root@hdss7-21 opt]# rm -rf kubernetes
[root@hdss7-21 opt]# ln -s /opt/kubernetes-v1.15.12 /opt/kubernetes
[root@hdss7-21 opt]# ll
總用量 24
drwx--x--x 4 root root 4096 7月   2 21:50 containerd
lrwxrwxrwx 1 root root   16 6月   8 20:36 etcd -> /opt/etcd-v3.3.1
drwxr-xr-x 5 etcd etcd 4096 7月   9 21:25 etcd-v3.3.1
lrwxrwxrwx 1 root root   20 7月  17 19:40 flannel -> /opt/flannel-v0.11.0
drwxr-xr-x 3 root root 4096 7月  28 20:05 flannel-v0.11.0
lrwxrwxrwx 1 root root   23 7月  28 22:20 kubernetes -> /opt/kubernetes-v1.15.12
drwxr-xr-x 5 root root 4096 7月  10 20:36 kubernetes-v1.14.10
drwxr-xr-x 6 root root 4096 7月  28 22:18 kubernetes-v1.15.12
drwxr-xr-x 2 root root 4096 7月  28 22:10 src

7、重啟節點服務

[root@hdss7-21 opt]# supervisorctl status
etcd-server-7-21                 RUNNING   pid 6296, uptime 014
flanneld-7-21                    RUNNING   pid 7042, uptime 014
kube-apiserver-7-21              RUNNING   pid 7165, uptime 024
kube-controller-manager-7-21     RUNNING   pid 4675, uptime 003
kube-kubelet-7-21                RUNNING   pid 7184, uptime 016
kube-proxy-7-21                  RUNNING   pid 4678, uptime 003
kube-scheduler-7-21              RUNNING   pid 4673, uptime 003

重啟node節點服務

[root@hdss7-21 opt]# supervisorctl restart kube-kubelet-7-21
[root@hdss7-21 opt]# supervisorctl restart kube-proxy-7-21

查看版本

[root@hdss7-21 opt]# kubectl get node
NAME                STATUS   ROLES    AGE     VERSION
hdss7-21.host.com   Ready       4d22h   v1.15.12
hdss7-22.host.com   Ready       19d     v1.14.10

重啟master節點服務

[root@hdss7-21 opt]# supervisorctl restart kube-apiserver-7-21
[root@hdss7-21 opt]# supervisorctl restart kube-controller-manager-7-21
[root@hdss7-21 opt]# supervisorctl restart kube-scheduler-7-21

注意重啟過程中可以查看日志,確保啟動無問題。

8、修改代理nginx配置

修改11和12配置

[root@hdss7-11 ~]# vim /etc/nginx/nginx.conf
    upstream kube-apiserver {
        server 10.4.7.21:6443     max_fails=3 fail_timeout=30s;
#        server 10.4.7.22:6443     max_fails=3 fail_timeout=30s;
    }
[root@hdss7-11 ~]# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
[root@hdss7-11 ~]# nginx -s reload

9、升級第二個節點

按照同樣的方法對其余節點進行升級
在10.4.7.22上操作
最后檢查服務啟動狀態和node節點版本

[root@hdss7-22 ~]# supervisorctl status
etcd-server-7-22                 RUNNING   pid 1235, uptime 1:10:58
flanneld-7-22                    RUNNING   pid 1203, uptime 1:10:59
kube-apiserver-7-22              RUNNING   pid 25776, uptime 0:01:39
kube-controller-manager-7-22     RUNNING   pid 26009, uptime 0:01:09
kube-kubelet-7-22                RUNNING   pid 23925, uptime 0:06:08
kube-proxy-7-22                  RUNNING   pid 24142, uptime 0:05:38
kube-scheduler-7-22              RUNNING   pid 26190, uptime 0:00:38
[root@hdss7-22 ~]# kubectl get node
NAME                STATUS   ROLES    AGE     VERSION
hdss7-21.host.com   Ready       4d22h   v1.15.12
hdss7-22.host.com   Ready       6m12s   v1.15.12

10、修改nginx代理

將配置文件改為原來狀態

[root@hdss7-11 ~]# vim /etc/nginx/nginx.conf
    upstream kube-apiserver {
        server 10.4.7.21:6443     max_fails=3 fail_timeout=30s;
        server 10.4.7.22:6443     max_fails=3 fail_timeout=30s;
    }
[root@hdss7-11 ~]# nginx -t
nginx: the configuration file /etc/nginx/nginx.conf syntax is ok
nginx: configuration file /etc/nginx/nginx.conf test is successful
[root@hdss7-11 ~]# nginx -s reload

11、測試操作平臺

75fc9a50-c5dc-11ef-9310-92fbcf53809c.png

760a2df0-c5dc-11ef-9310-92fbcf53809c.png

12、重新分配pod節點

查看pod信息得知目前大部分的pod在10.4.7.21上,這不符合性能最優狀態,我們可以在dashbard面板上刪除一個pod,通過scheduler的計算,會在另外一個(22上)負載較少的node節點上重新啟動這個pod
如下,刪除coredns的pod

7615e42e-c5dc-11ef-9310-92fbcf53809c.png

正在重啟狀態

761dd0da-c5dc-11ef-9310-92fbcf53809c.png

啟動后的狀態

76355ec6-c5dc-11ef-9310-92fbcf53809c.png

鏈接:https://www.cnblogs.com/wangyuanguang/p/15091863.html

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 節點
    +關注

    關注

    0

    文章

    229

    瀏覽量

    25566
  • POD
    POD
    +關注

    關注

    0

    文章

    18

    瀏覽量

    6286

原文標題:12、重新分配pod節點

文章出處:【微信號:magedu-Linux,微信公眾號:馬哥Linux運維】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    科大訊飛ANYPIN Note Pod P1榮獲2026德國iF設計獎

    Note Pod P1,憑借其在創意理念、形態美學、功能實用、差異化創新及可持續價值五大維度的卓越表現,從激烈角逐中脫穎而出,成功獲得這一國際殊榮。
    的頭像 發表于 03-02 14:54 ?274次閱讀

    全球產業鏈重構下:中國氣密性檢測企業的角色變化與出海破圈路徑

    全球產業鏈正在經歷一場深刻的重構。這場重構的表象是工廠的地理遷移,本質卻是質量控制權的重新分配。在這個過程中,一個看似邊緣的行業——氣密性檢測設備制造,正站在變革的中心位置。以深圳市精誠工科
    的頭像 發表于 02-27 11:54 ?142次閱讀
    全球產業鏈重構下:中國氣密性檢測企業的角色變化與出海破圈路徑

    Kubernetes Pod調度策略原理與落地指南

    Pod調度是Kubernetes的核心機制之一,決定了Pod最終運行在哪個節點上。默認調度器kube-scheduler通過一系列預選(Filtering)和優選(Scoring)算法完成調度決策,但默認行為在生產環境中往往不夠
    的頭像 發表于 02-27 11:08 ?142次閱讀

    Kubernetes故障排查手冊

    K8s集群出故障是常態。Pod起不來、Service訪問不通、節點NotReady、證書過期、etcd磁盤滿——每一個問題都可能導致業務中斷。和傳統運維不同,K8s的故障鏈路更長:一個請求從
    的頭像 發表于 02-26 09:47 ?180次閱讀

    節點分析法的工作原理和基本步驟

    節點分析法(節點電壓法、節點電位法)是一種電路分析技術,以電路中各節點(連接點)的電位作為未知量,運用基爾霍夫電流定律(KCL)建立聯立方程進行求解。作為與網孔分析法同樣重要的經典電路
    的頭像 發表于 02-05 14:50 ?349次閱讀
    <b class='flag-5'>節點</b>分析法的工作原理和基本步驟

    CANFD總線多節點擴展技術:節點數量限制與突破方案

    在工業控制、汽車電子等 CANFD 總線應用場景中,節點數量直接影響系統覆蓋范圍與數據交互效率。節點數量并非無限制擴展,其受總線特性、硬件設計、協議配置等多重因素約束。本文將深入解析 CANFD
    的頭像 發表于 12-15 17:35 ?1368次閱讀
    CANFD總線多<b class='flag-5'>節點</b>擴展技術:<b class='flag-5'>節點</b>數量限制與突破方案

    請問如何將蜂鳥E203移植到Xilinx NEXYS A7 FPGA 開發板上?

    列,使用Xilinx NEXYS A7時需要重新分配引腳。我找了下Xilinx Artix-7 系列XC7A100T-fgg484的引腳分配,一直沒有找到。麻煩大神指導下。
    發表于 11-11 07:44

    時標分配器、時間信號分配器、時鐘分配

    時鐘分配儀器儀表
    西安同步電子科技有限公司
    發布于 :2025年10月22日 10:40:51

    在PSoC? 41xx 系列的代碼執行期間是否可以將運算放大器重新分配給另一個引腳?

    您能否確認在PSoC? 41xx 系列的代碼執行期間是否可以將運算放大器重新分配給另一個引腳? 目標是讓一個設備配備 2 個運算放大器來測量和放大 2 個以上的信號,那么是否可以動態地將運算放大器重新路由到不同的引腳?或者是否需要使用具有更多運算放大器的設備來完成此任務?
    發表于 08-15 07:05

    TC3XX 的端口可以同時被 EvADC 和 DSADC 用于 ADC 轉換嗎?

    1、TC3XX 的端口可以同時被 EvADC 和 DSADC 用于 ADC 轉換嗎? 例如,TC36X系列的AN1引腳 2、同時重新分配同一個引腳,是否會影響EVAADC和DSADC的轉換結果的精度和速度?
    發表于 08-07 08:19

    什么是 K8S,如何使用 K8S

    、故障恢復等。 資源抽象與調度:將服務器資源抽象為統一資源池,通過調度器分配任務到節點。 自愈能力:自動重啟失敗容器或遷移到健康節點。 彈性伸縮:根據負載動態調整容器數量。 服務發現與負載均衡:內置服務
    發表于 06-25 06:45

    節點并行處理架構

    節點并行處理架構(如MPP架構)通過分布式計算和存儲實現高性能數據處理,其核心設計及典型應用如下: 一、核心架構特征 非共享架構(Share Nothing)? 每個節點擁有獨立的計算資源(CPU
    的頭像 發表于 06-12 08:18 ?624次閱讀
    多<b class='flag-5'>節點</b>并行處理架構

    詳解Kubernetes中的Pod調度親和性

    在 Kubernetes(K8s)中,Pod 調度親和性(Affinity) 是一種高級調度策略,用于控制 Pod節點(Node)或其他 Pod 之間的關聯(親和)或反關聯(反親和
    的頭像 發表于 06-07 13:56 ?935次閱讀

    golang內存分配

    作者:錢文 Go 的分配采用了類似 tcmalloc 的結構.特點: 使用一小塊一小塊的連續內存頁, 進行分配某個范圍大小的內存需求. 比如某個連續 8KB 專門用于分配 17-24 字節,以此減少
    的頭像 發表于 03-31 15:00 ?514次閱讀
    golang內存<b class='flag-5'>分配</b>

    Kubernetes負載均衡器MetalLB介紹

    Kubernetes中一個應用服務會有一個或多個實例,每個實例(Pod)的IP地址由網絡插件動態隨機分配Pod重啟后IP地址會改變)。為屏蔽這些后端實例的動態變化和對多實例的負載均衡,引入了 Service這個資源對象。
    的頭像 發表于 03-18 16:24 ?931次閱讀
    Kubernetes負載均衡器MetalLB介紹