国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PCIe的DMA介紹

FPGA設計論壇 ? 來源:FPGA設計論壇 ? 作者:FPGA設計論壇 ? 2022-08-03 14:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在PCIE中有兩種數據傳輸方式:

DMA(Direct Memory Access),直接內存訪問,在該模式下,數據傳送不是由CPU負責處理,而是由一個特殊的處理器DMA控制器來完成,因此占用極少的CPU資源。

PIO(Programmed Input-Output),可編程輸入輸出,在該模式下,數據傳送由CPU執行I/O端口指令來按照字節或更大的數據單位來處理,占用大量的CPU資源,數據傳輸速度也大大低于DMA模式。舉例老說,在DMA方式下,如果copy文件的同時在播放mp3音樂,則不受絲毫影響;如果在PIO模式下,則會發現音樂聲時斷時續,這是因為大部分CPU資源被文件傳輸占用。

所以,總的來說,使用DMA模式時,計算機的運行速度會比使用PIO模式快很多。

在xilinx中生成IP核后,工程文件夾下會有這兩個文件夾:

[Xilinx_PCIe_BMD] xilinx FPGA 開發 pcie BMD DMA的verilog HDL源碼[example_design] xilinx pcie總線 pio模式下的控制器代碼。包含接收發送模塊,存儲模塊,控制模塊等。

1.DMA概念

DMA的英文拼寫是“Direct Memory Access”,漢語的意思就是直接內存訪問。

內存與內存(外設)交換數據不經過CPU。

使用DMA的好處就是它不需要CPU的干預而直接服務外設,這樣CPU就可以去處理別的事務,從而提高系統的效率,對于慢速設備,如UART,其作用只是降低CPU的使用率,但對于高速設備,如硬盤,它不只是降低CPU的使用率,而且能大大提高硬件設備的吞吐量。因為對于這種設備,CPU直接供應數據的速度太低。因CPU只能一個總線周期最多存取一次總線,而且對于ARM,它不能把內存中A地址的值直接搬到B地址。它只能先把A地址的值搬到一個寄存器,然后再從這個寄存器搬到B地址。也就是說,對于ARM,要花費兩個總線周期才能將A地址的值送到B地址。而DMA就不同了,一般系統中的DMA都有突發(Burst)傳輸的能力,在這種模式下,DMA能一次傳輸幾個甚至幾十個字節的數據,所以使用DMA能使設備的吞吐能力大為增強。

對于任何類型的DMA傳輸,我們都需要規定數據的起始源和目標地址。對于外設DMA的情況來說,外設的FIFO可以作為數據源或者目標端。當外設作為源端時,某個存儲器的位置(內部或外部)則成為目標端地址。當外設作為目標端,存儲的位置(內部或者外部)則成為源端地址

2.PCIe的DMA介紹

在PCIe中需要使用DMA的項目,一定要先看XAPP1052,里面包含一個DMA的參考設計,對初學者有極大的幫助。

XAPP1052中包含FPGA源代碼和驅動程序源代碼,其中FPGA源代碼最主要的文件為:

1、《TX_ENGINE.v》:是產生TLP包的邏輯,包含讀TLP請求用于DMA讀;寫TLP請求用于DMA寫;CPLD用于BAR空間讀。

2、《RX_ENGINE.v》:是解析TLP包的邏輯,包含讀TLP解析用于BAR空間讀、寫TLP解析用于BAR空間寫、CPLD解析用于DMA讀。

DMA分為讀和寫種操作,兩種操作在細節上不同。

這里先簡單介紹一下DMA讀過程:

1、驅動程序向操作系統申請一片物理連續的內存;

2、主機向該地址寫入數據;

3、主機將這個內存的物理地址告訴FPGA;

4、FPGA向主機發起讀TLP請求—連續發出多個讀請求;

5、主機向FPGA返回CPLD包—連續返回多個CPLD;

6、FPGA取出CPLD包中的有效數據;

7、FPGA發送完數據后通過中斷等形式通知主機DMA完成;

DMA寫過程如下:

1、驅動程序向操作系統申請一片物理連續的內存;

2、主機將這個內存的物理地址告訴FPGA;

3、FPGA向主機發起寫TLP請求,并將數據放入TLP包中—連續發出多個寫請求;

4、FPGA發送完數據后通過中斷等形式通知主機DMA完成;

5、主機從內存中獲取數據;

如果是參考XAPP1052,一定要注意幾點:

1.1連續內存

申請的內存一定要物理連續。DMA是直接對物理內存—也就是實際的內存條進行讀寫操作,必須為物理連續的內存;而應用程序和驅動程序一般只能申請到邏輯上連續的內存,在物理上不一定連續。XAPP1052中可以看到申請內存上的一些特殊處理,目的就是獲取物理連續的內存,可獲取4KB的物理連續內存。但是XAPP1052在內存處理上也存在一些問題,實驗尚可,應用則不行。如何獲取內存的物理地址在XAPP1052中已經有示范,可直接參考。

1.2將地址告訴FPGA

XAPP1052是在BAR空間開辟了一段專用地址存放DMA讀地址、DMA寫地址、DMA長度、TLP包大小等參數,可直接參考。

1.3寫TLP請求

DMA寫的操作相對簡單,只需要FPGA單向發起寫TLP操作即可完成,至于有沒有真正寫入內存一般不需要FPGA關心;而驅動程序需要等待一定時間讓數據正真寫入內存—中斷處理的時間已經足夠讓數據寫入內存,所以也不必特別關心。

發起寫TLP請求可以連續發送,但是注意《TX_ENGINE.v》中要處理讀TLP請求、寫TLP請求和CPLD,所以有時會遇到三種請求競爭的情況。如果想要提高DMA的效率可以重新設定三種請求的優先級。

1.4讀TLP請求

DMA讀的操作相對復雜,需要FPGA向主機發出讀請求,主機再返回數據。FPGA控制邏輯必須計算發起了多少個讀TLP請求,再計算收到的數據是否足夠。

一般來說FPGA可以一次發送所有的讀請求,然后按照順序接收數據即可。但是某些主板并不一定是按照請求的順序返回數據的情況,可能后發出的請求先返回數據,屬于主機亂序執行的現象。要么FPGA一次只發一個讀請求,等數據收到了再發現一個讀請求—但是效率就對不起了;要么對亂序情況進行特殊處理,XAPP1052還沒有解決該問題。

1.5特殊參數

TLP包中有很多參數,例如:TC、ATTR等等,如果不了解的話,千萬不要隨意修改,與參考設計保持一致即可,否則很容易導致藍屏。

1.6 DMA通道

XAPP1052中只實現了一個DMA讀通道和一個DMA寫通道。對于很多應用,例如兩路視頻采集,需要兩路DMA寫通道:要么把兩路數據按照一定的格式整合為一個流;要么實現兩路DMA寫通道,XAPP1052不能直接實現。

1.7數據流量

XAPP1052整個方案的效率并不高,數據流量非常有限。數據量較少時倒是夠用,數據量大了會發現CPU使用率非常高,占用一個CPU核心,但是還會丟數據。主要原因是XAPP1052一次DMA的總長度為4KB,每一次DMA完成必須以中斷形式通知驅動程序,驅動程序再配置下一次DMA。從FPGA角度來說,已經做到“盡力”了,但是數據量一大CPU不停的進入中斷,時間全部浪費在處理中斷上了,而且CPU使用率非常高。

審核編輯:彭靜

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • PCIe
    +關注

    關注

    16

    文章

    1461

    瀏覽量

    88425
  • dma
    dma
    +關注

    關注

    3

    文章

    582

    瀏覽量

    105933
  • 源代碼
    +關注

    關注

    96

    文章

    2953

    瀏覽量

    70328

原文標題:PCIE之DMA

文章出處:【微信號:gh_9d70b445f494,微信公眾號:FPGA設計論壇】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    DMA(Direct Memory Access)的具體原理和實現方法是什么

    ] PCIe 端點使用系統 DMApcie_ep_dma_xfer() 用系統 DMA 在“映射的主機內存”和本地設備內存之間搬運數據,本質上也是配置
    發表于 02-12 10:16

    CW32L052 DMA直接內存訪問介紹

    CW32L052 DMA直接內存訪問概述CW32L052支持DMA(Direct Memory Access),即直接內存訪問,無需CPU干預,實現高速數據傳輸。數據的傳輸可以發生在: 外設和內存
    發表于 12-12 07:21

    Xilinx高性能低延時8通道PCIe-DMA控制器IP,SGDMA,QDMA,CDMA,RDMA, V4L2驅動,高速視頻采集, 高速AD采集

    Multi-ChannelHigh Performance PCIe QDMA&RDMA IP1 介紹基于PCI Express Integrated Block
    發表于 12-11 11:07

    Xilinx高性能NVMe Host控制器IP+PCIe 3.0軟核控制器IP,純邏輯實現,AXI4和AXI4-Stream DMA接口,支持PCIe 3.0和4.0

    NVMe AXI4 Host Controller IP1介紹NVMe AXI4 Host Controller IP可以連接高速存儲PCIe SSD,無需CPU,自動加速處理所有的NVMe協議命令
    發表于 11-14 22:40

    芯源的直接內存訪問(DMA)技術介紹

    芯片內置 DMA 控制器,4 條獨立通道,外設和存儲器之間、外設和外設之間、存儲器和存儲器之間的高速數 據傳輸。 每個 DMA 通道都通過專用的硬件連接 DMA 請求,并支持獨立的軟件觸發,支持
    發表于 11-12 07:40

    雙Zynq MPSoC PS側PCIe高速DMA互連解決方案

    在涉及Xilinx Zynq UltraScale+ MPSoC的項目中,實現設備間高速、低延遲的數據傳輸往往是核心需求之一。PCIe(尤其PS側)結合DMA(直接內存訪問)正是滿足這類需求的理想技術方案。
    的頭像 發表于 10-22 13:53 ?3865次閱讀
    雙Zynq MPSoC PS側<b class='flag-5'>PCIe</b>高速<b class='flag-5'>DMA</b>互連解決方案

    FPGA利用DMA IP核實現ADC數據采集

    本文介紹如何利用FPGA和DMA技術處理來自AD9280和AD9708 ADC的數據。首先,探討了這兩種ADC的特點及其與FPGA的接口兼容性。接著,詳細說明了使用Xilinx VIVADO環境下
    的頭像 發表于 07-29 14:12 ?5105次閱讀

    Pcie Demo使用說明-v1

    安裝一次即可。 (1)當執行make時可能會報錯 通過以下指令來解決 : sudo apt-get install gcc-12 (2)執行“sudo insmod pcie_dma
    的頭像 發表于 07-10 11:00 ?491次閱讀
    <b class='flag-5'>Pcie</b> Demo使用說明-v1

    基于AMD Versal器件實現PCIe5 DMA功能

    Versal是AMD 7nm的SoC高端器件,不僅擁有比16nm性能更強的邏輯性能,并且其PS系統中的CPM PCIe也較上一代MPSoC PS硬核PCIe單元強大得多。本節將基于AMD官方開發板展示如何快速部署PCIe5x8
    的頭像 發表于 06-19 09:44 ?1838次閱讀
    基于AMD Versal器件實現<b class='flag-5'>PCIe</b>5 <b class='flag-5'>DMA</b>功能

    第十五章 DMA

    本章介紹DMA(直接存儲器存取),其可在不占用CPU的情況下搬數據,支持多種傳輸方向,含控制器、通道等配置及相關實驗代碼。
    的頭像 發表于 06-14 16:32 ?1428次閱讀
    第十五章 <b class='flag-5'>DMA</b>

    nvme IP開發之PCIe

    PCIe事務層 PCIe的事務層連接了PCIe設備核心與PCIe鏈路,這里主要基于PCIe事務層進行了深入討論與分析。事務層采用TLP傳輸事
    發表于 05-18 00:48

    nvme IP開發之PCIe

    PCIe 體系結構 常見的PCIe總線系統結構如圖1所示,其中主要包含三種設備,分別是根復合體(RootComplex,RC)、Switch 和終端設備(EndPoint,EP)。 圖1 PCIe
    發表于 05-17 14:54

    基于PCIe(XDMA/QDMA)的多路視頻采集與顯示IP 多路高速AD采集與DA回放IP

    隊列管理和PCIe C2H DMA引擎,將采集到的視頻幀實時傳遞到上位機采集緩沖區。在超帶寬視頻采集情況下,支持采集丟幀操作,后續視頻可以正常采集。視頻采集與顯示子系統使用高效的PCIe H2C
    發表于 04-14 15:17