国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

VFIO將DMA映射暴露給用戶態?

Linux閱碼場 ? 來源:Linuxer ? 作者:Linuxer ? 2020-12-26 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開始之前我們先要說一個東西就是 DMA,直接讓設備訪問內存,可以不通過 CPU 搬運數據。

48963e3a-4422-11eb-8b86-12bb97331649.jpg

這是一個比較簡單的體系結構圖,設備 和 CPU 通過存儲控制器訪問存儲器。一個簡單的 case 是 CPU 向存儲器寫數據,然后設備從存儲器讀數據。這么快來一切都很正常。但是實際上 CPU 是有一層緩存的,例如下面這樣的。

48b96504-4422-11eb-8b86-12bb97331649.jpg

CPU 想內存寫數據,但是先要清空到不一致的緩存,然后設備再去讀數據,不然設備讀到的數據和 CPU 實際的數據會不一致(因為緩存里的數據可能和存儲器的不一致),而且實際上緩存也不只是一層,所以需要一個中間層來保證 從 CPU 的角度和從設備的角度內存都是一致的,所以就有了下面這個結構。

48db9c32-4422-11eb-8b86-12bb97331649.jpg

CPU 和 設備都會走緩存驗證一遍以后,再落到存儲器上,這樣帶上緩存以后大家的一致性都是一樣的了。所以從設備的角度,設備也擁有了緩存,實際上這個和 IOMMU 關系不是很大,接下來設備其實也可以和 CPU 一樣有一層 MMU,也就是地址到存儲器物理地址的轉換。注意,這里我用了地址,因為對 CPU 來說是虛擬地址,但是對設備來說是一個總線域的地址。這里要明確區分一下,一個是總線地址,是從設備的角度來看的,一個是 CPU 的虛擬地址,這是從 CPU 角度來看的,兩個是不同的東西。將總線域地址轉換成存儲器物理地址的設備就叫 IOMMU。

495b4f04-4422-11eb-8b86-12bb97331649.jpg

如果沒有 IOMMU,DMA 也能照常工作,IOMMU 的主要作用就是保護功能,防止使用 DMA 的設備訪問任意存儲器的物理地址。

IOMMU 在不同架構上名字不太一樣,AMD 叫 AMD-Vi,最開始針對的設備只是顯卡,Intel 叫 VT-d,arm 叫 SMMU,具體對應的手冊也不太一樣,但是主要解決的問題是一致的。在 VTd 中,dmar (DMA remapping) 就是那個 IOMMU 設備,通過中斷的方式實現類似 page fault 一樣的內存分配行為。DMA 傳輸是由 CPU 發起的:CPU 會告訴 DMA 控制器,幫忙將 xxx 地方的數據搬到 xxx 地方。CPU 發完指令之后,就當甩手掌柜了。IOMMU 有點像 MMU 是一個將設備地址翻譯到內存地址的頁表體系,也會有對應的頁表,這個東西在虛擬化中也非常有用,可以將原本有軟件模擬的設備,用直接的硬件替代,而原本的隔離通過 IOMMU 來完成。如下圖所示,原本需要通過軟件模擬的驅動設備可以通過 IOMMU 以安全的方式來直接把硬件設備分配個用戶態的 Guest OS。

49842d16-4422-11eb-8b86-12bb97331649.jpg

理論上講沒有 IOMMU 實際上是可以工作的,但是硬件的角度,設備就擁有了整個存儲器的全局視圖,這是無論如何都非常不合理的事情,不應該讓設備擁有訪問任意物理內存的能力。

這里要提的另外一個功能就是對中斷的隔離,類似于下面的通過在中斷請求中添加標識來重定向中斷到對應的中斷回調上。

49faa900-4422-11eb-8b86-12bb97331649.jpg

VFIO 的作用就是通過 IOMMU 以安全的方式來將設備的訪問直接暴露到用戶空間,而不用專門完成某個驅動等待合并到上游或者使用之前的對 IOMMU 沒有感知的 UIO 的框架。通過 VFIO 向用戶態開放 IOMMU 的功能,編寫用戶態的驅動。

對于 IOMMU 來說,隔離的級別不一定是單個設備,比如一個后面有幾個設備的 PCI 橋,從 PCI 橋角度來說,都是來自 PCI 橋的總線事務。所以 IOMMU 有一個iommu_group的概念,代表一組與其他設備隔離的設備的集合。

IOMMU 根據手冊上講還有一個域的概念,可以簡單理解為一段物理地址的抽象。

在iommu_group的層級上,VFIO 封裝了一層container class,這個的作用對應于希望能夠在不同的iommu_group之間共享TLB和page tables,這個就是一個集合的概念,跟容器的那個概念沒啥關系,一個集合總歸要有個名字。通過把 host 的 device 和 driver 解綁,然后綁定到 VFIO 的 driver 上,就會有個/dev/vfio/$GROUP/出現,然后這個$GROUP代表的就是這個 device 的iommu_group號,如果要使用 VFIO 就要把這個 group 下的所有 device 都解綁才可以。

通過打開/dev/vfio/vfio就能創建一個 VFIO 的 container,然后再打開/dev/vfio/$GROUP用VFIO_GROUP_SET_CONTAINERioctl 把文件描述傳進去,就把 group 加進去了,如果支持多個 group 共享頁表等結構,還可以把相應的 group 也加進去。(再強調一遍這個頁表是總線地址到存儲器物理地址,IOMMU 管理的那個頁表)。

下面舉個官方的栗子,獲取 PCI 設備 00000d.0 的group_id(PCI 命名的規則是domainslot.func)

$ readlink /sys/bus/pci/devices/00000d.0/iommu_group../../../../kernel/iommu_groups/26

使用之前需要你已經加載了 VFIO 模塊

modprobevfio-pci

解綁 PCI 設備,然后創建一個 container id

$ lspci -n -s 00000d.006:0d.0 0401: 1102:0002 (rev 08)# echo 00000d.0 > /sys/bus/pci/devices/00000d.0/driver/unbind# echo 1102 0002 > /sys/bus/pci/drivers/vfio-pci/new_id

然后尋找其他同屬于一個 group 的設備

$ ls -l /sys/bus/pci/devices/0000:06:0d.0/iommu_group/devicestotal 0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:00:1e.0 -> ../../../../devices/pci0000:00/0000:00:1e.0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:06:0d.0 -> ../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.0lrwxrwxrwx. 1 root root 0 Apr 23 16:13 0000:06:0d.1 ->../../../../devices/pci0000:00/0000:00:1e.0/0000:06:0d.1PCI 橋00001e.0后面掛了兩個設備,一個是剛才加進去的00000d.0,還有一個是00000d.1,通過上面的步奏加進去就可以。

最后一步是讓用戶有權限使用這個 group。

#chownuser:user/dev/vfio/26

下面就是一個樣例,從用戶態使用 VFIO,整個的使用方式是通過ioctl來獲取中斷相關信息,以及注冊中斷處理函數,然后也是通過ioctl來獲取region信息,然后調用相應的mmap函數,讓 CPU 可以訪問內存。

int container, group, device, i;struct vfio_group_status group_status ={ .argsz = sizeof(group_status) };struct vfio_iommu_type1_info iommu_info = { .argsz = sizeof(iommu_info) };struct vfio_iommu_type1_dma_map dma_map = { .argsz = sizeof(dma_map) };struct vfio_device_info device_info = { .argsz = sizeof(device_info) }; /* Create a new container */container = open("/dev/vfio/vfio", O_RDWR); if (ioctl(container, VFIO_GET_API_VERSION) != VFIO_API_VERSION) /* Unknown API version */ if (!ioctl(container, VFIO_CHECK_EXTENSION, VFIO_TYPE1_IOMMU)) /* Doesn't support the IOMMU driver we want. */ /* Open the group */group = open("/dev/vfio/26", O_RDWR); /* Test the group is viable and available */ioctl(group, VFIO_GROUP_GET_STATUS, &group_status); if (!(group_status.flags & VFIO_GROUP_FLAGS_VIABLE)) /* Group is not viable (ie, not all devices bound for vfio) */ /* Add the group to the container */ioctl(group, VFIO_GROUP_SET_CONTAINER, &container); /* Enable the IOMMU model we want */ioctl(container, VFIO_SET_IOMMU, VFIO_TYPE1_IOMMU); /* Get addition IOMMU info */ioctl(container, VFIO_IOMMU_GET_INFO, &iommu_info); /* Allocate some space and setup a DMA mapping */dma_map.vaddr = mmap(0, 1024 * 1024, PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS, 0, 0);dma_map.size = 1024 * 1024;dma_map.iova = 0; /* 1MB starting at 0x0 from device view */dma_map.flags = VFIO_DMA_MAP_FLAG_READ | VFIO_DMA_MAP_FLAG_WRITE; ioctl(container, VFIO_IOMMU_MAP_DMA, &dma_map); /* Get a file descriptor for the device */device = ioctl(group, VFIO_GROUP_GET_DEVICE_FD, "00000d.0"); /* Test and setup the device */ioctl(device, VFIO_DEVICE_GET_INFO, &device_info); for (i = 0; i < device_info.num_regions; i++) { struct vfio_region_info reg = { .argsz = sizeof(reg) }; reg.index = i; ioctl(device, VFIO_DEVICE_GET_REGION_INFO, ®); /* Setup mappings... read/write offsets, mmaps * For PCI devices, config space is a region */} for (i = 0; i < device_info.num_irqs; i++) { struct vfio_irq_info irq = { .argsz = sizeof(irq) }; irq.index = i; ioctl(device, VFIO_DEVICE_GET_IRQ_INFO, &irq); /* Setup IRQs... eventfds, VFIO_DEVICE_SET_IRQS */} /* Gratuitous device reset and go... */ioctl(device, VFIO_DEVICE_RESET);

在include/linux/vfio.h里面有完整的 API,這里就簡單略過。

在理解了一些基本原理和使用方式之后再來看 VFIO 的代碼應該叫就比較容易理解了。

首先是作為 PCI 設備的probe。主要是通過vfio_iommu_group_get分配iommu_group,然后調用vfio_add_group_dev初始化設備回調接口vfio_pci_ops,而remove就是反過來把對應的結構釋放掉就可以。然后再看注冊的回調函數結構體。

static const struct vfio_device_ops vfio_pci_ops = { .name = "vfio-pci", .open = vfio_pci_open, .release = vfio_pci_release, .ioctl = vfio_pci_ioctl, .read = vfio_pci_read, .write = vfio_pci_write, .mmap = vfio_pci_mmap, .request = vfio_pci_request,};

這里分析幾個關鍵的函數,他們會通過file_operations vfio_fops被間接的調用。

首先是 mmap,就是在調用vfio_pci_mmap的時候最終調用remap_pfn_range(vma, vma->vm_start, vma->vm_pgoff, req_len, vma->vm_page_prot);來將物理內存映射到用戶態空間,這就是上面的栗子中 mmap 系統調用的入口,而具體要映射的物理內存是通過一系列pci_resource_xxx宏從 PCI bar 空間讀出來的配置。

然后是 ioctl 接口,這個接口比較豐富,也簡單的看一下。比如VFIO_DEVICE_SET_IRQS會通過使用用戶態傳進來的結構體,調用vfio_pci_set_irqs_ioctl注冊中斷處理函數。而通過vfio_ioctl_set_iommu會設置 container 的 iommu_group 以及對應的 driver。read/write接口都是用于修改 PCI 配置信息的。

簡單的來說,VFIO 的主要工作是把設備通過 IOMMU 映射的 DMA 物理內存地址映射到用戶態中,讓用戶態程序可以自行操縱設備的傳輸,并且可以保證一定程度的安全,另外可以自行注冊中斷處理函數,從而在用戶態實現設備的驅動程序,通過這樣的框架,可以在 DPDK 中充分發揮用戶態協議棧的威力。

原文標題:VFIO —將 DMA 映射暴露給用戶態

文章出處:【微信公眾號:Linuxer】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴

原文標題:VFIO —將 DMA 映射暴露給用戶態

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    DMA(Direct Memory Access)的具體原理和實現方法是什么

    ] PCIe 端點使用系統 DMA :pcie_ep_dma_xfer() 用系統 DMA 在“映射的主機內存”和本地設備內存之間搬運數據,本質上也是配置
    發表于 02-12 10:16

    DMA彈性映射功能

    DMA彈性映射功能 示例 目的:演示AT32F系列DMA彈性映射功能使用的方法。 支持型號:AT32F 系列、AT32F403Axx 主要使用外設: TMR、 GPIO、
    發表于 12-12 16:04

    AT32F系列 使用DMA數據從FLASH傳輸到SRAM

    使用DMA數據從FLASH傳輸到SRAM 下載示例 演示AT32F系列使用DMA數據從FLASH傳輸到SRAM的使用方法。 注:本例程對應的代碼是基于雅特力提供的V2.x.x
    發表于 12-03 16:26

    哪些場景適合使用DMA

    : 模數轉換器(ADC)采集數據: 當ADC連續采樣時,通常會產生大量數據。使用DMA可以ADC轉換結果直接傳輸到內存中的數組,而不需要CPU每次讀取ADC數據寄存器。這樣可以避免CPU被頻繁
    發表于 11-12 07:13

    E203v2完整的地址映射

    為了對e203的地址功能分布有一個更宏觀的了解,我們隊伍總結并繪制了地址映射圖。 在此分享大家,希望對大家的工作有所幫助。
    發表于 10-27 06:37

    技術資訊 I 圖文詳解 Allegro X PCB Designer 中的 3D 模型映射

    本文要點面對市面上的一切要將PCB板放進一個盒子里的產品的設計都離不開3D模型映射這個功能,3D協同設計保證了產品的超薄化、高集成度的生命線;3D模型映射PCB設計從傳統的二維平面拉入了三維立體
    的頭像 發表于 10-17 16:16 ?1674次閱讀
    技術資訊 I 圖文詳解 Allegro X PCB Designer 中的 3D 模型<b class='flag-5'>映射</b>

    串口DMA接收方式打開,為什么在開啟IDLE中斷的情況下還需要開啟DMA中斷呢?

    如圖,在以 RT_DEVICE_FLAG_DMA_RX 方式打開串口時,底層會配置串口IDLE中斷,同時也會打開DMA中斷,DMA中斷在串口完成半傳輸和傳輸完成時會將數據寫入fifo,同時回調
    發表于 09-29 08:30

    求助,關于rt-smart用戶線程實時性差的問題求解

    我在樹莓派4B上使用v5.2.0 開啟smart的rt-thread 并啟用SMP多核(4核)內核時,在用戶和內核運行同樣的代碼測試: #include #include
    發表于 09-26 08:25

    NUC980是否可以對 EBI 進行 DMA

    是否可以對 EBI 進行 DMA?我有從 USB 到 SDRAM 的 DMA 工作,但是當我 DMA 目標地址更改為 EBI(60000000 美元)時,我沒有收到任何外部總線活動。
    發表于 08-29 07:05

    AG32:dma在cpld中的使用

    ,觸發dma信號,dma自動搬運到mcu指定的ram; 搬運一次后,dmacpld一個clear信號,完成一次dma搬運; 等到cpld中
    發表于 08-12 09:22

    無法配置 ADC1 來觸發 DMA 傳輸,怎么解決?

    您好,我無法配置 ADC1 來觸發 DMA 傳輸,以便 ADC 結果復制到緩沖區中并避免使用 ADC1 中斷。 根據用戶手冊,我發現應該使用 DMAP_ADC 來設置 DMA 的觸發
    發表于 07-21 06:57

    NVMe IP高速傳輸卻不依賴XDMA設計之五:DMA 控制單元設計

    DMA 控制單元負責控制 DMA 傳輸事務, 該單元承擔了 DMA 事務到 NVMe 事務的轉換任務, 使用戶對數據傳輸事務的控制更加簡單快捷。 D
    的頭像 發表于 07-02 19:47 ?2051次閱讀
    NVMe IP高速傳輸卻不依賴XDMA設計之五:<b class='flag-5'>DMA</b> 控制單元設計

    關于晶振的三

    晶振的高阻在電路起什么作用,為什么有的晶振需要三腳有的不需要,晶振的三是靠什么去控制的?
    發表于 05-15 11:08

    請問如何增大usb3.0從設備fifo接口固件中的寫dma緩存大小?

    現有的固件是默認的,分別配置了2個1KB的緩存讀和寫的dma。我想要多分配一點緩存dma,比如分配4kB
    發表于 05-14 08:13

    一文詳解AXI DMA技術

    AXI直接數值存取(Drect Memory Access,DMA)IP核在AXI4內存映射和AXI4流IP接口之間提供高帶寬的直接內存訪問。DMA可以選擇分散收集(Scatter Gather
    的頭像 發表于 04-03 09:32 ?2521次閱讀
    一文詳解AXI <b class='flag-5'>DMA</b>技術