成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

新目標檢測模型YOLOv9實踐 :訓練自定義數據

開發
在本文中,我將向您展示如何使用 Roboflow 在您的自定義數據集上使用新模型。

新YOLOv9模型的更新

YOLO系列模型有了一個新成員,在2024年2月發布了一篇新論文,標題為“YOLOv9: 使用可編程梯度信息學習您想要學習的內容”,詳細論文可以在這個鏈接中查看:https://arxiv.org/pdf/2402.13616.pdf。以下是一個快速概述:

  • 解決方案的核心是引入了可編程梯度信息(PGI)和一種新的輕量級網絡架構,稱為廣義高效層聚合網絡(GELAN)。
  • 可編程梯度信息(PGI):論文將PGI引入為一種方法,以減輕數據通過深度神經網絡層時的信息丟失。PGI確保完整的輸入信息可用于目標任務以計算目標函數,從而可以獲得可靠的梯度信息,用于更新網絡權重。
  • 廣義高效層聚合網絡(GELAN):GELAN基于梯度路徑規劃設計,旨在優化參數利用。這種架構在輕量級模型中展示出優異的結果,特別是與PGI結合時,在MS COCO數據集上的對象檢測任務中表現比現有的最先進方法更好。
  • 優越的性能:在基于MS COCO數據集的對象檢測上,GELAN和PGI的組合表現出優于其他方法的性能,特別是在參數利用和準確性方面,甚至超過了在大型數據集上預訓練的模型。

MS COCO對象檢測數據集的性能

與新YOLOv9進行實際交互 

在本節中,我將向您展示如何使用Roboflow在您的自定義數據集上使用新模型,以下是詳細步驟:

1.確保您的運行時類型設置為GPU:

您可以通過選擇Runtime > Change runtime type來檢查,確保選擇了GPU選項。

現在運行以下部分以確認我們正在使用正確的機器類型,并使得在我們的數據集中更容易進行使用。

!nvidia-smi
import os
HOME = os.getcwd()
print(HOME)

2.設置和安裝

現在是時候克隆YOLOv9存儲庫,并安裝roboflow庫,以便我們可以直接在筆記本中輕松下載我們的數據集,并下載模型權重。

!git clone https://github.com/SkalskiP/yolov9.git%cd yolov9
!pip install -r requirements.txt -q
!pip install -q roboflow
!wget -P {HOME}/weights -q https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-c.pt
!wget -P {HOME}/weights -q https://github.com/WongKinYiu/yolov9/releases/download/v0.1/yolov9-e.pt
!wget -P {HOME}/weights -q https://github.com/WongKinYiu/yolov9/releases/download/v0.1/gelan-c.pt
!wget -P {HOME}/weights -q https://github.com/WongKinYiu/yolov9/releases/download/v0.1/gelan-e.pt
!ls -la {HOME}/weights

3.創建您的Roboflow數據集

下一步是創建您想要使用的自定義數據集。

順便一提,不必使用roboflow,只要您的訓練和測試數據的文件結構符合YOLOv9文件結構標準,您也可以在自己的計算機上手動完成。我鼓勵熱心的讀者這樣做,但是對于本文,我們將繼續使用Roboflow,因為它提供了更便捷的交互。

轉到Roboflow項目頁面,然后選擇創建新項目:

然后您將被重定向到創建頁面,請確保填寫所有被請求的詳細信息,以下是一個示例:

從這一點上開始,您將被要求上傳您的數據集數據,因此請確保將所有相關的圖像添加在那里,然后點擊上傳。

接下來,您需要對圖像進行標注。這非常直觀:

使用提示框圍繞正確的對象創建方框。

然后將所選框分配給相應的類別。

下一步是生成階段,您需要創建一個版本,在此階段確保配置所有您認為與您的特定情況相關的預處理和增強步驟,然后繼續。完成選擇選項后,點擊創建。

現在,在右上角選擇導出數據集選項,檢查顯示下載代碼選項和YOLOv9格式,然后點擊繼續。

您將獲得一個下載代碼,請復制它,并將其粘貼到筆記本的以下部分:

開始訓練

最后,現在我們需要訓練我們的自定義模型,請根據您的項目需求設置參數,并相應地更改批量大小、時期數和圖像分辨率大小:

%cd {HOME}/yolov9

!python train.py \
--batch 16 --epochs 25 --img 640 --device 0 --min-items 0 --close-mosaic 15 \
--data {dataset.location}/data.yaml \
--weights {HOME}/weights/gelan-c.pt \
--cfg models/detect/gelan-c.yaml \
--hyp hyp.scratch-high.yaml

訓練過程可能需要一些時間,具體取決于您的數據集大小和所選擇的參數配置。

要查看我們的模型在訓練過程中的表現,以下是繪制出漂亮指標圖的代碼片段。我將展示我的結果和指標,但不要期望它們很好,因為我的數據集相當小且貧乏,目標只是展示訓練新模型的可能性。

from IPython.display import Image

Image(filename=f"{HOME}/yolov9/runs/train/exp/results.png", width=1000)

訓練結果

還有沒有混淆矩陣?

from IPython.display import Image

Image(filename=f"{HOME}/yolov9/runs/train/exp/confusion_matrix.png", width=1000)

訓練后的淆矩陣

如果要檢查模型的預測,可以這樣做:

from IPython.display import Image

Image(filename=f"{HOME}/yolov9/runs/train/exp/val_batch0_pred.jpg", width=1000)
責任編輯:趙寧寧 來源: 小白玩轉Python
相關推薦

2024-11-06 16:56:51

2025-01-22 11:10:34

2024-10-07 11:12:55

2024-09-09 16:35:10

YOLO模型

2025-02-07 14:52:11

2024-02-23 11:10:00

AI訓練

2024-07-01 12:55:50

2025-01-21 11:41:14

2024-10-16 16:49:44

定向邊界框目標檢測YOLOv8

2024-10-25 08:30:57

計算機視覺神經網絡YOLOv8模型

2024-02-26 10:21:49

神經網絡YOLO

2025-01-06 08:20:00

YOLOv11目標檢測Python

2017-05-19 10:03:31

AndroidBaseAdapter實踐

2023-12-21 09:00:21

函數React 組件useEffect

2024-10-24 20:56:36

2023-01-12 12:20:29

YOLOv8模型

2017-05-18 12:36:16

android萬能適配器列表視圖

2023-01-10 18:33:18

AIYOLO網絡

2010-08-12 09:45:33

jQuery自定義事件

2021-08-25 10:14:51

鴻蒙HarmonyOS應用
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩免费看视频 | 免费成人高清在线视频 | 成人区精品一区二区婷婷 | 一本色道久久综合亚洲精品高清 | 欧美一级片在线播放 | 国产高清无av久久 | 精品伦精品一区二区三区视频 | 国产精品一区久久久 | 日韩在线综合 | 久久国产电影 | 日韩精品一二三区 | 午夜99 | 久久不卡 | 美女黄视频网站 | 精品国产区 | a级片播放| 中文字幕亚洲欧美 | 精品一区在线看 | 国产精品久久久久久久久久 | 亚州春色| 国产日韩欧美一区二区 | 久久国产免费 | 亚洲视频二区 | 国产午夜一级 | 视频一区二区三区中文字幕 | 在线观看深夜视频 | 91视在线国内在线播放酒店 | 久久久久久久久久爱 | 亚洲一区二区久久 | 黄色一级电影免费观看 | 九色国产| 欧美视频福利 | 亚洲人成人一区二区在线观看 | 香蕉av免费 | 先锋影音资源网站 | 国产91av视频在线观看 | 欧美 日韩精品 | 国产精品视频网 | 欧美激情在线观看一区二区三区 | 日韩中文一区二区三区 | 二区在线观看 |