国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

eBPF技術應用云原生網絡實踐系列之基于socket的service

Linux閱碼場 ? 來源:OpenAnolis龍蜥 ? 作者:秉辰、羽云、滿霸 ? 2021-10-13 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景介紹

Kubernetes 中的網絡功能,主要包括 POD 網絡,service 網絡和網絡策略組成。其中 POD 網絡和網絡策略,都是規定了模型,沒有提供默認實現。而 service 網絡作為 Kubernetes 的特色部分,官方版本持續演進了多種實現:

service 實現說明

userspace 代理模式kube-proxy 負責 list/watch,規則設置,用戶態轉發。

iptables 代理模式kube-proxy 負責 list/watch,規則設置。IPtables 相關內核模塊負責轉發。

IPVS 代理模式kube-proxy 負責 list/watch,規則設置。IPVS 相關內核模塊負責轉發。

在 Kubernetes 中先后出現的幾種 Service 實現中,整體都是為了提供更高的性能和擴展性。

Service 網絡,本質上是一個分布式的服務器負載均衡,通過 daemonset 方式部署的 kube-proxy,監聽 endpoint 和 service 資源,并在 node 本地生成轉發表項。目前在生產環境中主要是 iptables 和 IPVS 方式,原理如下:

7f2ba892-2bce-11ec-82a8-dac502259ad0.png

在本文中,介紹使用 socket eBPF 在 socket 層面完成負載均衡的邏輯,消除了逐報文 NAT 轉換處理,進一步提升 Service 網絡的轉發性能。

基于 socket eBPF 的數據面實現

socket eBPF 數據面簡介

無論 kube-proxy 采用 IPVS 還是 tc eBPF 服務網絡加速模式,每個從 pod 發出網絡請求都必然經過 IPVS 或者 tc eBPF,即 POD 《--》 Service 《--》 POD,隨著流量的增加必然會有性能開銷, 那么是否可以直接在連接中將 service的clusterIP 的地址直接換成對應的 pod ip。基于 Kube-proxy+IPVS 實現的 service 網絡服務,是基于逐報處理 +session 的方式來實現。

利用 socket eBPF,可以在不用直接處理報文和 NAT 轉換的前提下,實現了負載均衡邏輯。Service 網絡在同步上優化成 POD 《--》 POD,從而使Service 網絡性能基本等同于 POD 網絡。軟件結構如下:

7f9c93a4-2bce-11ec-82a8-dac502259ad0.png

Linux 內核中,利用 BPF_PROG_TYPE_CGROUP_SOCK 類型的 eBPF hook 可以針對 socket 系統調用掛接 hook,插入必要的 EBPF 程序。

通過 attach 到特定的 cgroup 的文件描述符,可以控制 hook 接口的作用范圍。

利用 sock eBPF hook,我們可以在 socket 層面劫持特定的 socket 接口,來完成完成負載均衡邏輯。

POD-SVC-POD 的轉發行為轉換成 POD-POD 的轉發行為。

當前 Linux 內核中不斷完善相關的 hook,支持更多的 bpf_attach_type,部分距離如下:BPF_CGROUP_INET_SOCK_CREATEBPF_CGROUP_INET4_BINDBPF_CGROUP_INET4_CONNECTBPF_CGROUP_UDP4_SENDMSGBPF_CGROUP_UDP4_RECVMSGBPF_CGROUP_GETSOCKOPTBPF_CGROUP_INET4_GETPEERNAMEBPF_CGROUP_INET_SOCK_RELEASE

TCP 工作流程

TCP 由于是有基于連接的,所以實現非常簡明,只需要 hook connect 系統調用即可,如下所示:

80c7c974-2bce-11ec-82a8-dac502259ad0.png

connect 系統調用劫持邏輯:

1. 從 connect 調用上下文中取 dip+dport,查找 svc 表。找不到則不處理返回。

2. 查找親和性會話,如果找到,得到 backend_id,轉 4。否則轉 3。

3. 隨機調度,分配一個 backend。

4. 根據 backend_id,查 be 表,得到 be 的 IP+ 端口

5. 更新親和性信息。

6. 修改 connect 調用上下文中的 dip+dport 為 be 的 ip+port。

7. 完成。

在 socket 層面就完成了端口轉換,對于 TCP 的 clusterip 訪問,基本上可以等同于 POD 之間東西向的通信,將 clusterip 的開銷降到最低。

不需要逐包的 dnat 行為。

不需要逐包的查找 svc 的行為。

UDP 工作流程

UDP 由于是無連接的,實現要復雜一些,如下圖所示:

nat_sk 表的定義參見:LB4_REVERSE_NAT_SK_MAP

815d1c0e-2bce-11ec-82a8-dac502259ad0.png

劫持 connect 和 sendmsg 系統調用:

1. 從系統調用調用上下文中取 dip+dport,查找 svc 表。找不到則不處理返回。

2. 查找親和性會話,如果找到,得到 backend_id,轉 4,否則轉 3。

3. 隨機調度,分配一個 backend。

4. 根據 backend_id,查 be 表,得到 be 的 IP+端口。

5. 更新親和性的相關表。

6. 更新 nat_sk 表,key 為 be 的 ip+port,value 為 svc的vip+vport。

7. 修改系統調用上下文中的 dip+dport 為 be 的 ip + port。

8. 完成。劫持 recvmsg 系統調用

1. 從系統調用上下文中遠端 IP+port,查找 NAT_SK 表,找不到則不處理返回。

2. 找到,取出其中的 IP+port,用來查找 svc 表,找不到,則刪除 nat_sk 對應表項,返回。

3. 使用 nat_sk 中找到的 ip+port,設置系統調用上下文中遠端的 IP+port。

4. 完成。關于地址修正問題

基于 socket eBPF 實現的 clusterIP,在上述基本轉發原理之外,還有一些特殊的細節需要考慮,其中一個需要特殊考慮就是 peer address 的問題。和 IPVS之類的實現不同,在 socket eBPF 的 clusterIP 上,client 是和直接和 backend 通信的,中間的 service 被旁路了。

此時,如果 client 上的 APP 調用 getpeername 之類的接口查詢 peer address,這個時候獲取到的地址和 connect 發起的地址是不一致的,如果 app對于 peeraddr 有判斷或者特殊用途,可能會有意外情況。

針對這種情況,我們同樣可以通過 eBPF 在 socket 層面來修正:

1、在guest kernel 上新增 bpf_attach_type,可以對 getpeername 和 getsockname 增加 hook 處理。

2、發起連接的時候,在相應的 socket hook 處理中,定義 map 記錄響應的VIP:VPort 和 RSIP:RSPort 的對用關系。

3、當 APP 要調用 getpeername/getsockname 接口的時候,利用 eBPF 程序修正返回的數據:修改上下文中的遠端的 IP+port為vip+vport。

總結

和TC-EBPF/IPVS性能對比

測試環境:4vcpu + 8G mem 的安全容器實例,單 client + 單 clusterip + 12 backend。socket BPF:基于 socket ebpf 的 service 實現。tc eBPF:基于 cls-bpf 的 service 實現,目前已經在 ack 服務中應用。IPVS-raw:去掉所有安全組規則和 veth 之類開銷,只有 IPVS 轉發邏輯的 service 實現。socket BPF 在所有性能指標上,均有不同程度提升。大量并發的短連接,基本上吞吐提升 15%,時延降低 20%。

繼續演進eBPF does to Linux what JavaScript does to HTML.-- Brendan Gregg

基于 socket eBPF 實現的 service,大大簡化了負載均衡的邏輯實現,充分體現了 eBPF 靈活、小巧的特點。eBPF 的這些特點也很契合云原生場景,目前,該技術已在阿里云展開實踐,加速了 kubernetes 服務網絡。我們會繼續探索和完善更多的 eBPF 的應用案例,比如 IPv6、network policy 等。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7335

    瀏覽量

    94754
  • Linux
    +關注

    關注

    88

    文章

    11758

    瀏覽量

    219005
  • 服務器
    +關注

    關注

    14

    文章

    10251

    瀏覽量

    91478
  • IPv6
    +關注

    關注

    6

    文章

    735

    瀏覽量

    62653
  • TCP
    TCP
    +關注

    關注

    8

    文章

    1424

    瀏覽量

    83496

原文標題:eBPF技術應用云原生網絡實踐系列之基于socket的service | 龍蜥技術

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    輕松掌握——LuatOS socket基礎知識和應用開發

    對于剛接觸LuatOS開發的工程師而言,實現設備聯網往往是第一個重要目標,而Socket編程正是實現這一目標的核心技術路徑。本文以循序漸進的方式,帶領讀者從最基礎的Socket概念入手,逐步掌握在
    的頭像 發表于 01-28 20:07 ?169次閱讀
    輕松掌握——LuatOS  <b class='flag-5'>socket</b>基礎知識和應用開發

    socket是什么

    于在不同計算機之間傳輸數據。Socket技術可以用于實現各種網絡應用,例如客戶端-服務器應用,點對點應用等。 在計算機網絡中,Socket
    發表于 12-03 08:27

    技術分享】Systemd原生服務配置最佳實踐(下)

    上期我們說到sysv的規范,創建以及示例,那么我們今天就來講講Systemd的原生服務配置。為何要遷移到Systemd原生服務?盡管規范化的SysV腳本可臨時解決問題,但可能存在以下缺陷:效率低下
    的頭像 發表于 10-29 11:40 ?414次閱讀
    【<b class='flag-5'>技術</b>分享】Systemd<b class='flag-5'>原生</b>服務配置最佳<b class='flag-5'>實踐</b>(下)

    香港服務器支持Docker和Kubernetes嗎?

    和Kubernetes的部署與運行? 答案是肯定的,而且香港服務器由于其獨特的優勢,往往是部署容器化應用的絕佳選擇。 下面,我們將從技術支持、網絡優勢、實踐指南和注意事項等方面,全面解析香港服務器與
    的頭像 發表于 10-21 15:47 ?677次閱讀

    華為林偉亮相NetworkX 2025并發表主題演講

    在電信網絡盛會 Network X 2025 期間,華為云核心網智能電信云領域總裁林偉發表了題為 《從電信云原生到AI原生:加速電信業務AI創新》 的主題演講,系統闡述了移動AI時代對電信基礎設施提出的新挑戰,并分享了華為在關鍵
    的頭像 發表于 10-17 11:45 ?772次閱讀

    華為攜手產業伙伴榮獲杰出電信云應用案例獎

    近日,第21屆 Leading Lights Awards揭曉,中國移動網絡事業部、河南移動網絡管理中心與華為憑借“基于TICC云原生平臺的下一代電信運營實踐”創新項目,榮獲“杰出電信
    的頭像 發表于 09-25 11:07 ?806次閱讀

    GraniStudio : TCP/IP(Socket)協議深度剖析

    在工業自動化與物聯網領域,TCP/IP(Socket)協議作為應用最廣泛的網絡通信標準,是實現設備間數據交互的核心技術。GraniStudio 軟件作為工業級零代碼開發平臺,其內置的 TCP/IP
    的頭像 發表于 08-03 22:20 ?1187次閱讀
    GraniStudio : TCP/IP(<b class='flag-5'>Socket</b>)協議深度剖析

    基于eBPF的Kubernetes網絡異常檢測系統

    作為一名在云原生領域深耕多年的運維工程師,我見過太多因為網絡問題導致的生產事故。傳統的監控手段往往是事后諸葛亮,當你發現問題時,用戶已經在抱怨了。今天,我將分享如何利用 eBPF 這一革命性
    的頭像 發表于 07-24 14:09 ?722次閱讀

    Linux網絡管理的關鍵技術和最佳實踐

    在大型互聯網企業中,Linux網絡管理是運維工程師的核心技能之一。面對海量服務器、復雜網絡拓撲、高并發流量,運維人員需要掌握從基礎網絡配置到高級網絡優化的全套
    的頭像 發表于 07-09 09:53 ?945次閱讀

    云原生環境里Nginx的故障排查思路

    本文聚焦于云原生環境下Nginx的故障排查思路。隨著云原生技術的廣泛應用,Nginx作為常用的高性能Web服務器和反向代理服務器,在容器化和編排的環境中面臨著新的故障場景和挑戰。
    的頭像 發表于 06-17 13:53 ?964次閱讀
    <b class='flag-5'>云原生</b>環境里Nginx的故障排查思路

    開放生態+極簡運維:多租戶園區網絡云原生管理實踐

    新一代云化園區網解決方案,創新性地將數據中心級的Spine/Leaf架構以及“全三層”、“云架構”、“超堆疊”、“云漫游”等設計理念應用于園區場景,顯著提升網絡服務質量和運維水平。面對多租戶場景下更嚴苛的資源隔離、安全保障和自動化運維需求,本方案提供了系統性解決思路
    的頭像 發表于 06-16 16:28 ?937次閱讀
    開放生態+極簡運維:多租戶園區<b class='flag-5'>網絡</b>的<b class='flag-5'>云原生</b>管理<b class='flag-5'>實踐</b>

    國星光電榮獲2025 IDC中國未來數字工業領航者獎項

    近日,以“工業AI引領智造升級”為主題的2025 IDC中國CIO峰會在深圳舉行。國星光電受邀參會,并憑借參與申報的“國星光電依托云原生架構和技術平臺底座的工業軟件”項目,榮獲“2025 IDC中國
    的頭像 發表于 05-27 11:42 ?1255次閱讀

    網絡可視化為矛,AI告警為盾:新一代園區運維方案破局實踐

    隨著企業數字化轉型加速,傳統園區網絡架構在運維效率、成本控制等方面面臨嚴峻挑戰。星融元基于云原生理念打造的園區網絡解決方案,通過前兩階段的技術架構革新,已成功實現中大型園區基礎
    的頭像 發表于 05-19 17:48 ?673次閱讀
    <b class='flag-5'>網絡</b>可視化為矛,AI告警為盾:新一代園區運維方案破局<b class='flag-5'>實踐</b>

    從 Java 到 Go:面向對象的巨人與云原生的輕騎兵

    (Goroutine/Channel) 在 云原生基礎設施領域 占據主導地位,它也是 Java 開發者探索云原生技術棧的關鍵補
    的頭像 發表于 04-25 11:13 ?642次閱讀

    Snap Store開發者工具圖譜:從全棧到云原生,一張圖解鎖Linux開發新姿勢!

    PyCharm+Postman構建微服務,還是云原生新人嘗試Kubectl+Helm馴服K8s,SnapStore早已備好全套裝備。本文作為《UbuntuSnap》系列的第三彈
    的頭像 發表于 03-25 09:22 ?862次閱讀
    Snap Store開發者工具圖譜:從全棧到<b class='flag-5'>云原生</b>,一張圖解鎖Linux開發新姿勢!