国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Linux內(nèi)核網(wǎng)絡擁塞控制算法的實現(xiàn)框架(三)

麥辣雞腿堡 ? 來源:技術簡說 ? 作者:董旭 ? 2023-07-28 11:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

下面看一個特別重要的框架,也可以稱為是擁塞控制引擎,如下結構體所示, tcp_congestion_ops描述了一套擁塞控制算法所需要支持的操作 。這個框架定義了一些鉤子函數(shù),Linux內(nèi)核中不同的擁塞控制算法根據(jù)算法思想實現(xiàn)以下鉤子函數(shù),然后進行注冊即可完成擁塞控制算法的設計。

struct tcp_congestion_ops {
 struct list_head list;
 u32 key;
 u32 flags;

 /* initialize private data (optional) */
 void (*init)(struct sock *sk);
 /* cleanup private data  (optional) */
 void (*release)(struct sock *sk);

 /* return slow start threshold (required) */
 u32 (*ssthresh)(struct sock *sk);
 /* do new cwnd calculation (required) */
 void (*cong_avoid)(struct sock *sk, u32 ack, u32 acked);
 /* call before changing ca_state (optional) */
 void (*set_state)(struct sock *sk, u8 new_state);
 /* call when cwnd event occurs (optional) */
 void (*cwnd_event)(struct sock *sk, enum tcp_ca_event ev);
 /* call when ack arrives (optional) */
 void (*in_ack_event)(struct sock *sk, u32 flags);
 /* new value of cwnd after loss (required) */
 u32  (*undo_cwnd)(struct sock *sk);
 /* hook for packet ack accounting (optional) */
 void (*pkts_acked)(struct sock *sk, const struct ack_sample *sample);
 /* suggest number of segments for each skb to transmit (optional) */
 u32 (*tso_segs_goal)(struct sock *sk);
 /* returns the multiplier used in tcp_sndbuf_expand (optional) */
 u32 (*sndbuf_expand)(struct sock *sk);
 /* call when packets are delivered to update cwnd and pacing rate,
  * after all the ca_state processing. (optional)
  */
 void (*cong_control)(struct sock *sk, const struct rate_sample *rs);
 /* get info for inet_diag (optional) */
 size_t (*get_info)(struct sock *sk, u32 ext, int *attr,
      union tcp_cc_info *info);

 char   name[TCP_CA_NAME_MAX];
 struct module  *owner;
};

用戶可以通過自定義以上鉤子函數(shù)實現(xiàn)定制擁塞控制算法,并進行注冊。以下截取cubic擁塞控制算法對接口的實現(xiàn)、注冊****的代碼片段。 可以注意到cubic只實現(xiàn)了擁塞控制引擎tcp_congestion_ops的部分鉤子函數(shù),因為有一些鉤子函數(shù)是必須實現(xiàn),有一些是根據(jù)算法選擇實現(xiàn)的。

static struct tcp_congestion_ops cubictcp __read_mostly = {
 .init  = bictcp_init,
 .ssthresh = bictcp_recalc_ssthresh,
 .cong_avoid = bictcp_cong_avoid,
 .set_state = bictcp_state,
 .undo_cwnd = tcp_reno_undo_cwnd,
 .cwnd_event = bictcp_cwnd_event,
 .pkts_acked     = bictcp_acked,
 .owner  = THIS_MODULE,
 .name  = "cubic",
};

static int __init cubictcp_register(void)
{
 BUILD_BUG_ON(sizeof(struct bictcp) > ICSK_CA_PRIV_SIZE);
 beta_scale = 8*(BICTCP_BETA_SCALE+beta) / 3
  / (BICTCP_BETA_SCALE - beta);

 cube_rtt_scale = (bic_scale * 10); /* 1024*c/rtt */

 cube_factor = 1ull < < (10+3*BICTCP_HZ); /* 2^40 */

 /* divide by bic_scale and by constant Srtt (100ms) */
 do_div(cube_factor, bic_scale * 10);

 return tcp_register_congestion_control(&cubictcp);
}

static void __exit cubictcp_unregister(void)
{
 tcp_unregister_congestion_control(&cubictcp);
}

module_init(cubictcp_register);
module_exit(cubictcp_unregister);

在Linux用戶態(tài)可以 通過參數(shù)查看當前使用的擁塞控制算法、當前可支持的擁塞控制算法 。如下表所示是兩個參數(shù)以及含義。

參數(shù)含義
net.ipv4.tcp_congestion_control當前運行的擁塞控制算法
net.ipv4.tcp_available_congestion_control當前可支持的擁塞控制算法

具體如下圖所示,通過參數(shù)看到當前可支持的擁塞控制算法以及當前使用的擁塞控制算法。可以看到當前可支持的擁塞控制算法中包含bbr算法, bbr算法在內(nèi)核版本4.9開始支持的

圖片

如果留意的話,在本文開始時提到了很多傳統(tǒng)的擁塞控制算法,那么在上面的命令中沒有看到,其實有眾多擁塞控制算法在Linux中沒有進行安裝,如下命令 查看Linux系統(tǒng)中所有已實現(xiàn)的擁塞控制算法模塊

圖片

如果想安裝特定的擁塞控制算法可以通過modprobe命令對指定的擁塞控制算法進行安裝,如下所示安裝了Vegas擁塞控制算法,此時再查看當前系統(tǒng)中可以使用的擁塞控制算法,多了一個Vegas算法。

圖片

除了可以動態(tài)查看當前Linux系統(tǒng)可用的擁塞控制算法、當前使用的擁塞控制算法外還可以動態(tài)切換擁塞控制算法。如下所示將默認的cubic擁塞控制算法切換為bbr擁塞控制算法。

圖片

切換后驗證如下,當前運行的擁塞控制算法由之前的cubic擁塞控制算法切換到了bbr擁塞控制算法。

圖片

圖片

至此本文關于Linux內(nèi)核網(wǎng)絡中擁塞控制的大概框架、原理介紹到這,文中有表達有誤或者不準確的地方歡迎指正。關于具體的每個擁塞控制算法的實現(xiàn),將在后續(xù)文章中呈現(xiàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 內(nèi)核
    +關注

    關注

    4

    文章

    1467

    瀏覽量

    42870
  • Linux
    +關注

    關注

    88

    文章

    11758

    瀏覽量

    219006
  • 網(wǎng)絡
    +關注

    關注

    14

    文章

    8264

    瀏覽量

    94702
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    LINUX內(nèi)核網(wǎng)絡中的軟中斷KSOFTIRQD

    之前分享過Linux內(nèi)核網(wǎng)絡數(shù)據(jù)包的接收過程,當執(zhí)行到網(wǎng)卡通過硬件中斷(IRQ)通知CPU,告訴它有數(shù)據(jù)來了,CPU會根據(jù)中斷表,調(diào)用已經(jīng)注冊的中斷函數(shù),這個中斷函數(shù)會調(diào)到驅(qū)動程序(NIC
    發(fā)表于 12-15 11:44 ?2578次閱讀

    TCP協(xié)議技術之擁塞控制算法

    擁塞控制是在網(wǎng)絡層和傳輸層進行的功能。在網(wǎng)絡層,擁塞控制可以通過路由
    的頭像 發(fā)表于 02-03 17:06 ?4271次閱讀
    TCP協(xié)議技術之<b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>

    Linux內(nèi)核網(wǎng)絡的TCP傳輸控制塊相關資料分享

    1、Linux內(nèi)核網(wǎng)絡之傳輸層接收消息簡析在傳輸層發(fā)送消息時,TCP發(fā)送出去消息后,會跟蹤這些數(shù)據(jù)包,直到得到對方的確認為止。對于接收方來講,當收到一個報文段時,其會根據(jù)情況把這些數(shù)據(jù)包添加到接收
    發(fā)表于 06-21 16:53

    基于衛(wèi)星網(wǎng)絡的TCP擁塞控制算法

    分析衛(wèi)星網(wǎng)絡的特點和現(xiàn)有慢啟動算法的不足,提出一種使擁塞窗口平滑增長的慢啟動算法。引入門限因子和粒度因子實現(xiàn)
    發(fā)表于 03-20 13:54 ?18次下載

    Linux中傳輸控制協(xié)議的擁塞控制分析

    TCP(transport control protocol)的性能在很大程度上取決于其所使用的擁塞控制算法。傳統(tǒng)的TCP在實現(xiàn)多種擁塞
    發(fā)表于 06-17 07:43 ?21次下載

    高速網(wǎng)絡中TCP擁塞控制算法的研究

    針對TCP 在高速網(wǎng)絡中的缺陷,提出了改進的BIC TCP 擁塞控制算法。優(yōu)化算法通過監(jiān)控鏈路緩存的變化,調(diào)整探索可用帶寬過程中的
    發(fā)表于 09-17 10:18 ?15次下載

    嵌入式LINUX內(nèi)核網(wǎng)絡棧(源代碼)

    本文選擇 LINUX-1.2.13 內(nèi)核所包含的網(wǎng)絡部分代碼分析(注意網(wǎng)絡部分代碼與內(nèi)核代碼的演變是分離的,如
    發(fā)表于 05-12 10:39 ?57次下載
    嵌入式<b class='flag-5'>LINUX</b><b class='flag-5'>內(nèi)核網(wǎng)絡</b>棧(源代碼)

    基于模糊控制和壓縮感知的無線傳感網(wǎng)絡擁塞算法

    針對無線傳感網(wǎng)絡(WSN)的擁塞問題,提出了一種將模糊控制和壓縮感知(cs)技術相結合來緩解無線傳感網(wǎng)絡擁塞
    發(fā)表于 01-03 09:59 ?0次下載
    基于模糊<b class='flag-5'>控制</b>和壓縮感知的無線傳感<b class='flag-5'>網(wǎng)絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>算法</b>

    具有預測與自我調(diào)節(jié)能力的擁塞控制算法

    隨著網(wǎng)絡技術的日益發(fā)展,計算機網(wǎng)絡擁塞問題已極大地影響了用戶的使用體驗與數(shù)據(jù)傳遞。單一地提高硬件設備的投入并不能持續(xù)地防止網(wǎng)絡擁塞。因此
    發(fā)表于 01-18 16:18 ?0次下載
    具有預測與自我調(diào)節(jié)能力的<b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>

    防止網(wǎng)絡擁塞現(xiàn)象的TCP擁塞控制算法

    ,近些年又出現(xiàn)了選擇性應答(selectiveacknowledgement,SACK)算法,還有其他方面的大大小小的改進,成為網(wǎng)絡研究的一個熱點。 TCP的擁塞控制主要原理依賴于一個
    的頭像 發(fā)表于 10-29 14:54 ?3187次閱讀

    如何使用Linux內(nèi)核實現(xiàn)USB驅(qū)動程序框架

    Linux內(nèi)核提供了完整的USB驅(qū)動程序框架。USB總線采用樹形結構,在一條總線上只能有唯一的主機設備。 Linux內(nèi)核從主機和設備兩個角度
    發(fā)表于 11-06 17:59 ?20次下載
    如何使用<b class='flag-5'>Linux</b><b class='flag-5'>內(nèi)核實現(xiàn)</b>USB驅(qū)動程序<b class='flag-5'>框架</b>

    如何用eBPF寫TCP擁塞控制算法

    是兩個痛點: 內(nèi)核越來越策略化。 內(nèi)核接口不穩(wěn)定。 分別簡單說一下。 所謂內(nèi)核策略化就是說越來越多的?靈巧的算法?,?小tricks?等靈活多變的代碼進入
    的頭像 發(fā)表于 12-26 09:44 ?2259次閱讀

    Linux內(nèi)核配置的網(wǎng)絡資料說明

    Linux不止在上網(wǎng)時候才會用到網(wǎng)絡功能’一些程序在單機時候也會需要內(nèi)核網(wǎng)絡支持。 X server是個典型的例子。如果你是從一個老內(nèi)核
    發(fā)表于 03-12 10:33 ?14次下載

    Linux內(nèi)核網(wǎng)絡擁塞控制算法的具體實現(xiàn)框架(一)

    控制算法,有很大差別。本文從Linux內(nèi)核源碼中學習網(wǎng)絡擁塞
    的頭像 發(fā)表于 07-28 11:32 ?1554次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>內(nèi)核網(wǎng)絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>的具體<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>框架</b>(一)

    Linux內(nèi)核網(wǎng)絡擁塞控制算法實現(xiàn)框架(二)

    從上面的概念中可以得知,擁塞窗口可以間接反映網(wǎng)絡的狀況,進而去限制發(fā)送窗口的大小。擁塞窗口作為網(wǎng)絡擁塞
    的頭像 發(fā)表于 07-28 11:34 ?1574次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>內(nèi)核網(wǎng)絡</b><b class='flag-5'>擁塞</b><b class='flag-5'>控制</b><b class='flag-5'>算法</b>的<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>框架</b>(二)