YOLOv4的PyTorch最小化實現

2021-03-02 專知

A minimal PyTorch implementation of YOLOv4.

Paper Yolo v4: https://arxiv.org/abs/2004.10934

Source code:https://github.com/AlexeyAB/darknet

More details: http://pjreddie.com/darknet/yolo/

 Inference

 Train

Inference

python demo.py cfgfile weightfile imgfile

Reference:

https://github.com/eriklindernoren/PyTorch-YOLOv3

https://github.com/marvis/pytorch-caffe-darknet-convert

https://github.com/marvis/pytorch-yolo3

@article{yolov4,
title={YOLOv4: YOLOv4: Optimal Speed and Accuracy of Object Detection},
author={Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao},
journal = {arXiv},
year={2020}
}

專知便捷查看

便捷下載,請關注專知公眾號(點擊上方藍色專知關注)

專知,專業可信的人工智慧知識分發,讓認知協作更快更好!歡迎註冊登錄專知www.zhuanzhi.ai,獲取5000+AI主題乾貨知識資料!歡迎微信掃一掃加入專知人工智慧知識星球群,獲取最新AI專業乾貨知識教程資料和與專家交流諮詢!點擊「閱讀原文」,了解使用專知,查看獲取5000+AI主題知識資源

相關焦點

  • YOLOv4最全復現代碼合集(含PyTorch/TF/Keras和Caffe等)
    其實去年Amusi 就整理過YOLOv3的最全復現合集,詳見:YOLOv3最全復現代碼合集(含PyTorch/TensorFlow和Keras等)現在Amusi 將基於不同深度學習框架的 YOLOv4 復現代碼進行匯總(自認為還不錯的復現代碼),為了方便各位 CVers 瀏覽,下述內容已經同步上傳至github:https://github.com/amusi
  • YOLOv4 的各種新實現、配置、測試、訓練資源匯總
    COCO 43.5 AP,65FPS!實現速度與精度的最優平衡得到了大家的廣泛關注。以下視頻為 YOLOv4 在駕駛環境的測試結果:來自 https://www.youtube.com/watch?v=VK2XnppfD_o生成上述視頻的命令:.
  • 【CV】YOLOv4最全復現代碼合集(含PyTorch/TF/Keras和Caffe等)
    pytorch-YOLOv4 支持訓練(926 star)2. https://github.com/bubbliiiing/yolov4-pytorch 支持訓練(120 star)TensorFlow
  • 【算法】libtorch-yolov5:yolov5目標檢測算法的LibTorch實現
    implementation of the yolov5 object detection algorithm./ultralytics/yolov5/issues/251Mandatory Update: developer needs to modify following code from the original export.py in yolov5https:
  • 【算法】YOLOv5-PyTorch:YOLOv5的PyTorch實現
    YOLOv5-PyTorchA PyTorch implementation of YOLOv5.
  • pip安裝YOLOv5
    lt;1.20" "matplotlib>=3.2.2,<4"pip install yolov5命令行的使用yolov5 庫安裝好後,同時會生成 yolov5 的命令行工具,其使用方法與源碼中的 detect.py 非常類似,如下yolov5 detect
  • YOLOv4 最強PyTorch復現來了!
    yolov4-tiny2020-07-15 - design and training conditional YOLOv4. yolov4-pacsp-conditional2020-07-13 - support MixUp data augmentation.
  • 指尖上的YOLOv5
    軟硬體環境前言前面幾篇文章,我們已經詳細介紹過yolov5的檢測、訓練、可視化等內容,本文繼續yolov5的話題,這回我們來看看,如何在android中去使用yolov5來進行目標檢測?我們直接拉取yolov5 for android的源碼git clone https://github.com/nihui/ncnn-android-yolov5然後來到ncnn的版本發布頁,下載編譯好的包 https
  • 使用google colab訓練YOLOv5模型
    colab最大的好處是給廣大的AI開發者提供免費的gpu資源,可以在上面非常輕鬆地運行如tensorflow、pytorch、keras等深度學習框架。/mask-wearingCSDN下載 https://download.csdn.net/download/djstavaV/12624588百度網盤 https://pan.baidu.com/s/15GSPiJ59dg4kNyUch6W5Xw, 提取碼:wja4
  • 在Android上進行yolov5目標檢測,使用torchscript方式
    環境前言前文 在Android上運行YOLOv5目標檢測 我們介紹過使用ncnn的方式在android設備上進行yolov5的目標檢測。本篇介紹另一種方式,即torchscript。android torchscript修改完成後就可以進行轉換了(pytorch1.6) xugaoxiang@1070Ti:~/workshop/yolov5-3.0$ python models/export.py --weights weights/yolov5s.pt
  • 【項目實踐】YOLO V4萬字原理詳細講解並訓練自己的數據集(pytorch完整項目打包下載)
    1、SPP結構參雜在對CSPdarknet53的最後一個特徵層的卷積裡,在對CSPdarknet53的最後一個特徵層進行三次DarknetConv2D_BN_Leaky卷積後,分別利用四個不同尺度的最大池化進行處理,最大池化的池化核大小分別為13x13、9x9、5x5、1x1(1x1即無處理)#-## SPP結構
  • 目標檢測實戰:4種YOLO目標檢測的C++和Python兩種版本實現
    yolo_nets[4] = { {0.5, 0.4, 416, 416,"coco.names", "yolov3/yolov3.cfg", "yolov3/yolov3.weights", "yolov3"}, {0.5, 0.4, 608, 608,"coco.names", "yolov4/yolov4.cfg", "yolov4/yolov4.weights", "yolov4"},
  • YOLOv5 深度可視化解析
    yolov4差別很小,主要特點是靈活度比yolov4更高。yoyolov4網絡結構其實是非常清晰的,而yolov5基本沒有啥變化,具體差別後面會寫,先簡單分析下yolov4結構:    (1) CSPDarknet53,CSP就是CSPNet論文裡面跨階段局部融合網絡,仿照的是Densenet密集跨層跳層連接思想,但是考慮到內存消耗過大,故修改為部分局部跨層融合做法,圖示如上所示
  • YOLOv4pytorch實現代碼
    大家好,我是Ray,今天給大家推薦一份YOLOv4的pytorch實現代碼。隨著深度學習的發展,目前已經出現了很多算法(或者tricks)來提升神經網絡的準確率。這個倉庫是對YOLOv4在pytorch下的一個重新實現,基於官方的darknet的實現,並且使用了PASCAL VOC, COCO數據集。結果如下圖所示。
  • 基於yolo v4的自動化標註軟體實現——附源碼
    v4的 自動標註軟體版本:1.0內容:基於yolo v4的 自動標註軟體,驗證成功時間:2021.10.27作者:狄雲********************************************************************************************"""import tensorflow
  • 【CV】YOLOv4官方改進版來了!指標炸裂55.8% AP!Scaled-YOLOv4:擴展跨階段局部網絡
    YOLOv4-tiny的模型實現了1774 FPS!YOLOv4-tiny模型在RTX 2080Ti上以443 FPS的速度實現了22.0%的AP(42.0%AP50),而使用TensorRT,批處理大小= 4和FP16精度,YOLOv4-tiny的模型實現了1774 FPS。
  • YOLOv5是真的嗎?並不比YOLOv4強,不配這個名字
    :儘管 YOLOv5 的開發者沒有明確地將其與 YOLOv4 進行比較,但他們卻聲稱 YOLOv5 能在 Tesla P100 上實現 140 FPS 的快速檢測;相較而言,YOLOv4 的基準結果是在 50 FPS 速度下得到的,參閱:https://blog.roboflow.ai/yolov5-is-hereState-of-the-Art
  • YOLOv5 是真的嗎?並不比 YOLOv4 強,不配這個名字
    Ultralytics 的創始人兼 CEO Glenn Jocher 在 GitHub 上發布了 YOLOv5 的一個開源實現。據 Ultralytics 的 GitHub 頁面稱,這是當前所有已知 YOLO 實現中的當前最佳(SOTA)。
  • YOLOV4視頻對象檢測,python+opencv輕鬆實現
    ().rstrip('\n').split("\n")np.random.seed(42)COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype="uint8")weightsPath = "yolo-coco/yolov4.weights"
  • 實用教程詳解:用OpenCV的DNN模塊部署YOLOv5目標檢測
    在YOLOv5之前的YOLOv3和YOLOv4的官方代碼都是基於darknet框架的實現的,因此OpenCV的DNN模塊做目標檢測時,讀取的是.cfg和.weight文件,那時候編寫程序很順暢,沒有遇到bug。