国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Python+OpenCV 十幾行代碼模仿世界名畫

人工智能精選 ? 2018-10-15 15:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現在很多人都喜歡拍照(自拍)。有限的濾鏡和裝飾玩多了也會膩,所以就有 APP 提供了模仿名畫風格的功能,比如 prisma、versa 等,可以把你的照片變成梵高、畢加索、蒙克等大師的風格。

這種功能叫做“圖像風格遷移”,幾乎都是基于 CVPR 2015 的論文《A Neural Algorithm of Artistic Style》和 ECCV 2016 的論文《Perceptual Losses for Real-Time Style Transfer and Super-Resolution》中提出的算法,以及后續相關研究的基礎上開發出來的。

通俗來講,就是借助于神經網絡,預先將名畫中的風格訓練成出模型,在將其應用在不同的照片上,生成新的風格化圖像。

而因為神經網絡在計算機視覺方面的應用越來越廣,著名的視覺開發庫 OpenCV 在 3.3 版本中正式引入DNN(深度神經網絡),支持 Caffe、TensorFlow、Torch/PyTorch 等主流框架的模型,可用以實現圖像的識別、檢測、分類、分割、著色等功能。

我最近才發現在 OpenCV 的 Sample 代碼中就有圖像風格遷移的 Python 示例(原諒我的后知后覺),是基于 ECCV 2016 論文中的網絡模型實現。所以,即使作為人工智能的菜鳥,也可以拿別人訓練好的模型來玩一玩,體會下神經網絡的奇妙。

(相關代碼和模型的獲取見文末)

OpenCV 官方代碼地址:https://github.com/opencv/opencv/blob/3.4.0/samples/dnn/fast_neural_style.py

目錄下通過執行命令運行代碼:

pythonfast_neural_style.py--modelstarry_night.t7

model參數是提供預先訓練好的模型文件路徑,OpenCV 沒有提供下載,但給出的參考項目 https://github.com/jcjohnson/fast-neural-style 中可以找到

其他可設置參數有:

  • input可以指定原始圖片/視頻,如果不提供就默認使用攝像頭實時采集。

  • width、height,調整處理圖像的大小,設置小一點可以提高計算速度。在我自己的電腦上,300x200 的轉換視頻可以達到 15 幀/秒。

  • median_filter中值濾波的窗口大小,用來對結果圖像進行平滑處理,這個對結果影響不大。

執行后的效果(取自 jcjohnson/fast-neural-style):

原始圖像

ECCV16 models

instance_norm models

核心代碼其實很短,就是加載模型 -> 讀取圖片 -> 進行計算 -> 輸出圖片,我在官方示例基礎上進一步簡化了一下:

importcv2
#加載模型
net=cv2.dnn.readNetFromTorch('the_scream.t7')
net.setPreferableBackend(cv2.dnn.DNN_BACKEND_OPENCV);
#讀取圖片
image=cv2.imread('test.jpg')
(h,w)=image.shape[:2]
blob=cv2.dnn.blobFromImage(image,1.0,(w,h),(103.939,116.779,123.680),swapRB=False,crop=False)
#進行計算
net.setInput(blob)
out=net.forward()
out=out.reshape(3,out.shape[2],out.shape[3])
out[0]+=103.939
out[1]+=116.779
out[2]+=123.68
out/=255
out=out.transpose(1,2,0)
#輸出圖片
cv2.imshow('Styledimage',out)
cv2.waitKey(0)

執行結果:

另外還改了個多效果實時對比的版本(計算量大了,很卡頓),也一并上傳在代碼中。

PS:前兩天看趙雷演唱會的時候我還說:他演唱會的背景 MV 大量使用了 圖像二值化、邊緣檢測 等操作,讓我想到以前數字圖像處理課的大作業……現在圖像風格遷移的效率達到了實時,想必以后也會經常被使用吧

參考文獻:
fast-neural-style jcjohnson
https://github.com/jcjohnson/fast-neural-style

Perceptual Losses for Real-Time Style Transfer and Super-Resolution(ECCV 2016)
Justin Johnson, Alexandre Alahi, Li Fei-Fei

A Neural Algorithm of Artistic Style(CVPR 2015)
Leon A. Gatys, Alexander S. Ecker, Matthias Bethge

Neural Style Transfer with OpenCV - Adrian Rosebrock
https://www.pyimagesearch.com/2018/08/27/neural-style-transfer-with-opencv/

無需GPU,只用OpenCV和Python實現圖像和視頻的風格遷移(譯) - 論智 Bing
https://mp.weixin.qq.com/s/KXA6b-ckttBSQR5DvS3SBg

可以用 Python 編程語言做哪些神奇好玩的事情?- 知乎回答 @楊航鋒
https://www.zhihu.com/question/21395276/answer/115805610

用processing代碼模仿梵高畫楊超越 - 算法藝術實驗室AALab Alice
https://mp.weixin.qq.com/s/UOVww7IgCteuQ6Bsbf0yEA

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107750
  • 機器視覺
    +關注

    關注

    165

    文章

    4797

    瀏覽量

    126042
  • OpenCV
    +關注

    關注

    33

    文章

    652

    瀏覽量

    44781
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    沒有專利的opencv-python 版本

    專利風險,僅需避開 opencv-contrib-python 的 nonfree 模塊(或直接用無頭版)。 如果你的場景需要特定功能(如特征提取、目標跟蹤),可以告訴我具體需求,我幫你推薦對應的無專利 API 和代碼示例~
    發表于 12-13 12:37

    Termux中調試圣誕樹Python代碼

    在Termux中調試Python代碼(以圣誕樹立例)非常簡單,核心分為環境準備、代碼編寫、運行調試三個步驟,下面一步步教你操作: 一、環境準備(首次使用需做) Termux默認可能沒有Pyth
    發表于 12-09 09:02

    那些年我用OpenCV+Qt趟過哪些坑?寫給視覺應用開發者的避坑指南

    前陣子,團隊里新來的小伙子跑來找我,眉頭緊鎖。他手里的項目我清楚:一個基于攝像頭的簡單計數工具。Demo階段用Python+OpenCV幾行代碼跑得飛快,準確率也好看。可一旦要打包成給產線工人用
    發表于 12-02 09:43

    那些年我用OpenCV+Qt趟過哪些坑?寫給視覺應用開發者的避坑指南

    前陣子,團隊里新來的小伙子跑來找我,眉頭緊鎖。他手里的項目我清楚:一個基于攝像頭的簡單計數工具。Demo階段用Python+OpenCV幾行代碼跑得飛快,準確率也好看。可一旦要打包成給產線工人用
    的頭像 發表于 12-02 09:40 ?327次閱讀
    那些年我用<b class='flag-5'>OpenCV</b>+Qt趟過哪些坑?寫給視覺應用開發者的避坑指南

    知乎開源“智能預渲染框架” 幾行代碼實現鴻蒙應用頁面“秒開”

    ,交互延遲等核心痛點,通過智能預測用戶瀏覽目標進行提前渲染,只需幾行代碼即可顯著提升復雜頁面的加載性能,實現“頁面秒開”的高效體驗,為鴻蒙開發者帶來開發效率和用戶體驗的雙重飛躍。 隨著鴻蒙生態快速發展,應用開發者難免會遇到一些性能問題
    的頭像 發表于 08-29 14:32 ?627次閱讀
    知乎開源“智能預渲染框架” <b class='flag-5'>幾行</b><b class='flag-5'>代碼</b>實現鴻蒙應用頁面“秒開”

    如何使用樹莓派與OpenCV實現面部和運動追蹤的云臺系統?

    大家好,這是一個樹莓派和OpenCV的連載專題。使用樹莓派與OpenCV實現姿態估計和面部特征點追蹤使用樹莓派與OpenCV實現面部和運動追蹤的云臺系統使用樹莓派和OpenCV實現手部
    的頭像 發表于 08-14 17:45 ?1561次閱讀
    如何使用樹莓派與<b class='flag-5'>OpenCV</b>實現面部和運動追蹤的云臺系統?

    【創龍TL3562-MiniEVM開發板試用體驗】問題4 ubuntu鏡像,opencv不能正常工作??

    /simple --trusted-host mirrors.aliyun.com opencv-python 示例代碼 import cv2 # 初始化攝像頭對象,0通常是默認的攝像頭索引 #cap
    發表于 08-11 22:17

    【GM-3568JHF開發板免費體驗】OpenCV開發環境安裝和計數程序開發

    、 Android 等系統上運行,并通過Python接口簡化操作。 sudo apt install libopencv-dev python3-opencv 四、OpenCV圖像識別測試 使用
    發表于 08-09 13:30

    如何板端編譯OpenCV并搭建應用--基于瑞芯微米爾RK3576開發板

    運行opencv代碼,來完成一些視覺內容,充分發揮該板的性能。要先編譯opencv需要一些預先的準備工作首先更新軟件包并安裝必要的依賴:sudo apt update sudo apt upgrade
    發表于 08-08 17:14

    【Milk-V Duo S 開發板免費體驗】SDK編譯、人臉檢測、OpenCV測試

    CMakeLists.txt ESC + I 進入 Insert 模式,粘貼如下代碼 project(opencv-mobile-test) cmake_minimum_required
    發表于 07-11 13:48

    如何在k230上運行OpenCV代碼?

    如何在k230上運行OpenCV代碼
    發表于 06-17 06:06

    【正點原子STM32MP257開發板試用】2.USB攝像頭使用

    ) (usb-482f0000.usb-1.3): /dev/video7 /dev/video8 /dev/media2 最后一個(UVC Camera)就是設備,要記下是video多少,后期opencv-python需要
    發表于 06-16 19:16

    如何用OpenCV的相機捕捉視頻進行人臉檢測--基于米爾NXP i.MX93開發板

    攝像頭)1、安裝python3-opencvaptinstallpython3-opencv(左右移動查看全部內容)2、查看攝像頭支持的格式與分辨率root@debi
    的頭像 發表于 04-15 11:51 ?806次閱讀
    如何用<b class='flag-5'>OpenCV</b>的相機捕捉視頻進行人臉檢測--基于米爾NXP i.MX93開發板

    快速部署!米爾全志T527開發板的OpenCV行人檢測方案指南

    sudo apt-get install libopencv-dev python3-opencv 2.在全志T527開發板?安裝pipsudo apt-get install python3-pip 二
    發表于 04-11 18:14

    創建了用于OpenVINO?推理的自定義C++和Python代碼,從C++代碼中獲得的結果與Python代碼不同是為什么?

    創建了用于OpenVINO?推理的自定義 C++ 和 Python* 代碼。 在兩個推理過程中使用相同的圖像和模型。 從 C++ 代碼中獲得的結果與 Python*
    發表于 03-06 06:22