国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

一個關于尋找圖像中最亮點的教程的后續(xù)

新機器視覺 ? 來源:AI算法與圖像處理 ? 作者:AI算法與圖像處理 ? 2021-06-18 11:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今天的博客文章是我?guī)啄昵白龅囊粋€關于尋找圖像中最亮點的教程的后續(xù)。

我之前的教程假設在圖像中只有一個亮點你想要檢測。。.

但如果有多個亮點呢?

如果您想在圖像中檢測多個亮點,代碼會稍微復雜一點,但不會太復雜。不過不用擔心:我將詳細解釋每一個步驟。

看看下面的圖片:

2fa98c60-cf69-11eb-9e57-12bb97331649.jpg

在這幅圖中,我們有五個燈泡。

我們的目標是檢測圖像中的這五個燈泡,并對它們進行唯一的標記。

首先,打開一個新文件并將其命名為detect_bright_spot .py。然后,插入以下代碼:

# import the necessary packagesfrom imutils import contoursfrom skimage import measureimport numpy as npimport argparseimport imutilsimport cv2# construct the argument parse and parse the argumentsap = argparse.ArgumentParser()ap.add_argument(“-i”, “--image”, required=True, help=“path to the image file”)args = vars(ap.parse_args())

導入一些必要的包和命令行參數(shù)。

要開始檢測圖像中最亮的區(qū)域,我們首先需要從磁盤加載我們的圖像,然后將其轉換為灰度圖并進行平滑濾波,以減少高頻噪聲:

# load the image, convert it to grayscale, and blur itimage = cv2.imread(args[“image”])gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)blurred = cv2.GaussianBlur(gray, (11, 11), 0)

這些操作的輸出如下:

2fcf2f1a-cf69-11eb-9e57-12bb97331649.png

為了顯示模糊圖像中最亮的區(qū)域,我們需要應用閾值化:

# threshold the image to reveal light regions in the# blurred imagethresh = cv2.threshold(blurred, 200, 255, cv2.THRESH_BINARY)[1]

操作取任意像素值p 》= 200,并將其設置為255(白色)。像素值《 200被設置為0(黑色)。

閾值化后,我們得到如下圖像:

2fe920c8-cf69-11eb-9e57-12bb97331649.png

注意圖像的明亮區(qū)域現(xiàn)在都是白色的,而其余的圖像被設置為黑色。

然而,在這幅圖像中有一點噪聲(即,小斑點),所以讓我們通過執(zhí)行一系列的腐蝕和膨脹操作來清除它:

# perform a series of erosions and dilations to remove# any small blobs of noise from the thresholded imagethresh = cv2.erode(thresh, None, iterations=2)thresh = cv2.dilate(thresh, None, iterations=4)

在應用這些操作之后,你可以看到我們的thresh圖像變得更加“干凈”,但是仍然有一些我們想要移除的斑點。

303a4fde-cf69-11eb-9e57-12bb97331649.png

本項目的關鍵步驟是對上圖中的每個區(qū)域進行標記,然而,即使在應用了腐蝕和膨脹后,我們?nèi)匀幌胍^濾掉剩余的小塊兒區(qū)域。

一個很好的方法是執(zhí)行連接組件分析:

# perform a connected component analysis on the thresholded# image, then initialize a mask to store only the “l(fā)arge”# componentslabels = measure.label(thresh, neighbors=8, background=0)mask = np.zeros(thresh.shape, dtype=“uint8”)# loop over the unique componentsfor label in np.unique(labels): # if this is the background label, ignore it if label == 0: continue # otherwise, construct the label mask and count the # number of pixels labelMask = np.zeros(thresh.shape, dtype=“uint8”) labelMask[labels == label] = 255 numPixels = cv2.countNonZero(labelMask) # if the number of pixels in the component is sufficiently # large, then add it to our mask of “l(fā)arge blobs” if numPixels 》 300: mask = cv2.add(mask, labelMask)

第4行使用scikit-image庫執(zhí)行實際的連接組件分析。measure.lable返回的label和我們的閾值圖像有相同的大小,唯一的區(qū)別就是label存儲的為閾值圖像每一斑點對應的正整數(shù)。

然后我們在第5行初始化一個掩膜來存儲大的斑點。

第7行我們開始循環(huán)遍歷每個label中的正整數(shù)標簽,如果標簽為零,則表示我們正在檢測背景并可以安全的忽略它(9,10行)。

否則,我們?yōu)楫斍皡^(qū)域構建一個掩碼。

下面我提供了一個GIF動畫,它可視化地構建了每個標簽的labelMask。使用這個動畫來幫助你了解如何訪問和顯示每個單獨的組件:

305158fa-cf69-11eb-9e57-12bb97331649.gif

然后第15行對labelMask中的非零像素進行計數(shù)。如果numPixels超過了一個預先定義的閾值(在本例中,總數(shù)為300像素),那么我們認為這個斑點“足夠大”,并將其添加到掩膜中。

輸出掩模如下圖:

注意,所有小的斑點都被過濾掉了,只有大的斑點被保留了下來。

最后一步是在我們的圖像上繪制標記的斑點:

# find the contours in the mask, then sort them from left to# rightcnts = cv2.findContours(mask.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)cnts = imutils.grab_contours(cnts)cnts = contours.sort_contours(cnts)[0]# loop over the contoursfor (i, c) in enumerate(cnts): # draw the bright spot on the image (x, y, w, h) = cv2.boundingRect(c) ((cX, cY), radius) = cv2.minEnclosingCircle(c) cv2.circle(image, (int(cX), int(cY)), int(radius), (0, 0, 255), 3) cv2.putText(image, “#{}”.format(i + 1), (x, y - 15), cv2.FONT_HERSHEY_SIMPLEX, 0.45, (0, 0, 255), 2)# show the output imagecv2.imshow(“Image”, image)cv2.waitKey(0)

首先,我們需要檢測掩模圖像中的輪廓,然后按從左到右排序(3-7行)。

一旦我們的輪廓已經(jīng)排序,我們可以對它們進行單獨的循環(huán)處理(第8行)。

對于這些輪廓線,我們將計算出代表明亮區(qū)域的最小包圍圓(第12行)。

然后,我們唯一地標記該區(qū)域并在圖像上繪制它(第12-15行)。

最后,第17行和第18行顯示了輸出結果。

運行程序,你應該會看到以下輸出圖像:

請注意,每個燈泡都被獨特地標上了圓圈,圓圈圍繞著每個單獨的明亮區(qū)域。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • OpenCV
    +關注

    關注

    33

    文章

    652

    瀏覽量

    44809
  • 檢測圖像
    +關注

    關注

    0

    文章

    3

    瀏覽量

    5612
  • python
    +關注

    關注

    57

    文章

    4877

    瀏覽量

    90071

原文標題:使用Python和OpenCV檢測圖像中的多個亮點

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何修復液晶面板制程中的亮點缺陷?

    、引言 液晶面板(TFT-LCD)制程涵蓋Array、Cell、Module等多道精密工序,受異物污染、工藝偏差、靜電損傷等因素影響,極易產(chǎn)生亮點、暗點、線路缺陷等問題,其中亮點缺陷是制約產(chǎn)品良率
    的頭像 發(fā)表于 01-22 16:45 ?135次閱讀
    如何修復液晶面板制程中的<b class='flag-5'>亮點</b>缺陷?

    高速工業(yè)圖像采集卡:PCIe/網(wǎng)口雙接口選型與特性解析

    ?隨著機器視覺技術的日益成熟,工業(yè)自動化水平的不斷提高,高速工業(yè)圖像采集卡作為機器視覺系統(tǒng)的關鍵組成部分,扮演著越來越重要的角色。它負責將工業(yè)相機捕捉到的圖像數(shù)據(jù)以極快的速度傳輸?shù)接嬎銠C,為后續(xù)
    的頭像 發(fā)表于 12-30 17:01 ?611次閱讀
    高速工業(yè)<b class='flag-5'>圖像</b>采集卡:PCIe/網(wǎng)口雙接口選型與特性解析

    請問CW32微控制器有哪些特色功能或技術亮點

    CW32微控制器有哪些特色功能或技術亮點
    發(fā)表于 12-16 08:08

    onsemi AR0235CS圖像傳感器:工業(yè)視覺領域的新選擇

    在電子工程領域,圖像傳感器是許多應用的核心組件,特別是在工業(yè)檢測、掃描等需要捕捉清晰圖像的場景中。今天我們要介紹的是安森美(onsemi)的款高性能圖像傳感器——AR0235CS,它
    的頭像 發(fā)表于 11-26 15:36 ?530次閱讀
    onsemi AR0235CS<b class='flag-5'>圖像</b>傳感器:工業(yè)視覺領域的新選擇

    工業(yè)圖像采集卡:機器視覺的“信號中樞”

    、定位:連接物理視界與數(shù)字大腦的重要樞紐在工業(yè)自動化生產(chǎn)線的精密檢測工位上,當高速相機捕捉到PCB板的微米級紋路時,常被忽視卻至關重要的硬件正在完成關鍵轉換——工業(yè)圖像采集卡如同
    的頭像 發(fā)表于 11-06 15:09 ?329次閱讀
    工業(yè)<b class='flag-5'>圖像</b>采集卡:機器視覺的“信號中樞”

    FPGA的圖像采集過程

    次性讀取所有128寄存器的值并存入RAM,RAM的存入地址即為寄存器的地址。讀寫模式選擇通過開關控制,在寫操作完成后會產(chǎn)生同步信號
    發(fā)表于 10-29 06:23

    使用Otsu閾值算法將灰度圖像二值化

    Otsu 算法是由日本學者OTSU于1979年提出的種對圖像進行二值化的高效算法,又稱“最大類間方差法”。當我們對圖象進行二值化操作的時候,需要根據(jù)
    發(fā)表于 10-28 06:49

    關于電壓保持電路的分析

    各位大佬好,我遇到這樣電路,作用是給板卡提供電壓保持,板卡斷電后,維持板卡定時間的運行,這個電路中選用的超級電容是2.7V/10F 關于這個電路我有些問題沒搞懂,請教各位大佬。
    發(fā)表于 09-15 17:39

    尋找設計多功能控溫儀的工程師,期待合作共贏?

    各位論壇的朋友,大家好!? 我目前有關于多功能控溫儀設計的項目,急需專業(yè)的工程師或者設計團隊來完成設計開發(fā),在此真誠地發(fā)帖尋找合適的合作伙伴。? 這款多功能控溫儀的應用場景主要為低
    發(fā)表于 07-25 11:24

    工業(yè)相機圖像采集卡:技術剖析、應用場景與未來發(fā)展

    CameraLink、CoaXPress、GigEVision等,高效、穩(wěn)定地將數(shù)據(jù)傳輸?shù)接嬎銠C進行后續(xù)圖像處理、分析和應用。本文將深入剖析工業(yè)相機圖像采集卡的技術細
    的頭像 發(fā)表于 05-28 13:49 ?794次閱讀
    工業(yè)相機<b class='flag-5'>圖像</b>采集卡:技術剖析、應用場景與未來發(fā)展

    基于LockAI視覺識別模塊:C++多模板匹配

    多模板匹配是種在圖像中同時尋找多個模板的技術。通過對每個模板逐進行匹配,找到與輸入圖像最相似的區(qū)域,并標記出匹配度最高的結果。本實驗提供
    的頭像 發(fā)表于 05-14 14:37 ?1627次閱讀
    基于LockAI視覺識別模塊:C++多模板匹配

    基于LockAI視覺識別模塊:C++模板匹配

    模板匹配是種在圖像尋找特定模式的技術。它通過滑動模板圖像(較小的
    的頭像 發(fā)表于 05-13 14:14 ?790次閱讀
    基于LockAI視覺識別模塊:C++模板匹配

    如何使用離線工具od SPSDK生成完整圖像

    SDSDK)會生成缺少前 4KB 的文件。 這些將由 flashloader 直接在目標上填充,使用將要傳達給它的參數(shù),對吧? 我需要離線工作。我需要生成 “完整
    發(fā)表于 03-28 06:51

    純小白,尋找直會發(fā)射信號的藍牙

    藍牙。 我目前用的是紅米手表在車上,當手機自動連接手表藍牙后解鎖,斷開藍牙鎖車。 遇到的問題就是藍牙手表信號太好,很遠就解鎖,下車走很遠也才會鎖車。 想尋找可以調(diào)節(jié)發(fā)射信號(方便我手機10米左右再
    發(fā)表于 03-27 21:58

    工業(yè)圖像采集卡:機器視覺的基石與智能制造的引擎

    工業(yè)圖像采集卡,作為機器視覺系統(tǒng)中的關鍵組成部分,其重要性不言而喻。它如同機器的“眼睛”,負責捕捉現(xiàn)實世界的圖像信息,并將其轉化為可供計算機處理的數(shù)據(jù),為后續(xù)圖像分析、識別、測量和控
    的頭像 發(fā)表于 03-10 13:25 ?838次閱讀
    工業(yè)<b class='flag-5'>圖像</b>采集卡:機器視覺的基石與智能制造的引擎