YOLO labeling tool的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

國立臺北科技大學 電子工程系 賴冠廷所指導 余俊賢的 基於VoTT之高效能半自動人物標註 (2021),提出YOLO labeling tool關鍵因素是什麼,來自於Visual Object Tagging Tool (VoTT)、半自動標註工具、物件追蹤、多核心處理。

而第二篇論文國立勤益科技大學 機械工程系 黃智勇所指導 林冠儒的 基於改良Mask R-CNN結合轉移學習於銑刀表面缺陷檢測 (2021),提出因為有 表面缺陷檢測、Mask R-CNN、轉移學習、深度可分離卷積的重點而找出了 YOLO labeling tool的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了YOLO labeling tool,大家也想知道這些:

基於VoTT之高效能半自動人物標註

為了解決YOLO labeling tool的問題,作者余俊賢 這樣論述:

近年來Artificial Intelligence (AI) 技術日新月異,雖然有些成就早已遠勝於人類;但在用於AI模型所需之訓練資料的物件標註工作,目前主流尚以人工標註為主。例如本論文研究的無人機拍攝影片之人物動作標註,在無人機多角度與高低空拍攝的情況下,人工標註還是會優於AI 模型產生之標註。例如在高空拍攝的情況下,標註人員往往一眼就能辨識出渺小的人物,但AI模型尚不能完全辨識;或是廣告刊板的人物照片會導致AI模型誤判;又或是人物重疊則造成無法辨識等情況。但人工標也有其缺點,如重複性的工作還是會大大的降低人工標註的精確度,例如一秒30幀的影片,其標註人員必須重複性的一幀一幀的標註畫面上

出現的眾多人物,標註久了導致注意力降低因而增加標註錯誤率。有鑑於此,本論文在合適的標註工具基礎下,如VoTT [1] 下,再將開發出的半自動標註工具嵌入在VoTT內,以提升人員標註之效率。本論文使用OpenCV提供的CSRT tracker演算法再搭配本論文撰寫之多核心處理架構下之物件追蹤,用以執行在多角度與高低空拍攝之影片情境下進行物件追蹤,讓標註人員只需在標註一幀的情況下,即能將剩下的幀數之追蹤目標人物自動標註完成。經實驗驗證後,本研究之結果的確可大幅提升標註人員之工作的便利性與精確度。

基於改良Mask R-CNN結合轉移學習於銑刀表面缺陷檢測

為了解決YOLO labeling tool的問題,作者林冠儒 這樣論述:

端銑刀製造商於製程中因砂輪不當磨削,螺旋刃處易產生缺角、刮痕等缺陷,由於端銑刀特殊的螺旋結構缺陷不易被檢出,且人工檢測結果受工作人員主觀判斷影響,品質檢測難有一致性標準,使良率與準確度不穩定,因此開發可以在生產線中使用的自動化光學檢測系統顯得至關重要。雖已有相關論著利用面掃描相機擷取銑刀螺旋刃邊影像,再使用深度學習與傳統影像處理方法量測缺陷大小,但針對不位於刃邊上的缺陷與線上即時檢測,此方法實用性仍受到限制。因此,本研究提出了基於Mask R-CNN架構的缺陷檢測系統,將深度學習電腦視覺演算法導入AOI系統,用於檢測端銑刀製造商製程中磨削不當造成的端銑刀表面缺陷。本研究首先提出利用Line-

scan擷取銑刀螺旋刃邊影像,此影像資料集用於Mask R-CNN模型訓練;隨後,結合ResNet-50和Depthwise separable convolution優化原特徵萃取層,命名為DS-ResNet50,在模型精確率不降低的要求下減少了模型參數量;最後,使用Microsoft COCO dataset預訓練DS-ResNet50,解決缺陷影像資料量不足的問題。為了客觀分析缺陷預測的結果,以mean Average Precision (mAP)錯誤評估指標為首,評估模型的優劣。本研究實驗結果表明,與沒有使用轉移學習和原始ResNet-50的基礎模型相比,經過預訓練的DS-ResNe

t50獲得更高的0.921 mAP,DS-ResNet50將模型mAP提高4.5%,同時使模型參數量減少68.2%,與Mask R-CNN改良前相比,缺陷檢測模型達到更精準更輕量的效果。因此證實該方法可用於銑刀具紋理複雜紋理背景影像中,且能有效的檢測微小缺陷等異常問題,提升金屬製造業之附加價值。