Labelme json的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

中原大學 生物醫學工程學系 葛宗融所指導 黃依雯的 運用深度學習於定位肺結節電腦斷層影像之探討 (2021),提出Labelme json關鍵因素是什麼,來自於肺結節、肺部電腦斷層影像、自動化影像處理、深度學習。

而第二篇論文中原大學 工業與系統工程研究所 劉天倫所指導 林廷軒的 基於目標檢測及實例分割之協作機器人視覺應用 (2020),提出因為有 深度攝影機、座標轉換、協作機器人的重點而找出了 Labelme json的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了Labelme json,大家也想知道這些:

運用深度學習於定位肺結節電腦斷層影像之探討

為了解決Labelme json的問題,作者黃依雯 這樣論述:

肺結節為早期肺癌診斷的重點,目前主要以胸腔電腦斷層(CT)掃描來檢測其健康狀況。由於醫生需要從許多 CT 影像中以人工比對方式來判斷病變的發生與否,因此本研究透過目標檢測方法來訓練深度學習模型,以輔助醫師診斷肺結節於影像中之確切位置,來提升診斷效率和準確率。 本研究主要分成五個部分,分別是肺部影像資料集之收集與篩選、肺部影像處理、影像手動圈選、深度學習模型的驗證與測試。本研究在肺部自動化影像處理是先將電腦斷層影像進行二值化、黑白像素轉換、洪水填充法與填補孔洞,接著將影像進行 LabelMe 軟體手動圈選後放入深度學習模型中。在深度學習的部分運用 Mask R-CNN 模型架構進

行訓練與辨識,另外,會再將影像放入 YOLO v4 模型架構中訓練並一同進行比較,模型測試指標使用平均類別精確度(mean average precision, mAP)以評估模型辨識影像的成效與準確率,最後再進行影像定位與辨識的結果比較。除了 mAP 數值之外,為了觀測兩種模型的學習效能,皆使用損失函數(Loss Function)與 PR 曲線(Precision-Recall Curve)作為評估模型學習效果的指標。 實驗結果顯示,將肺部原始影像與前處理後影像放入 Mask R-CNN 與YOLO v4 兩種模型中進行訓練及測試,其前處理後影像之辨識準確率比原始影像有更高,尤其在

Mask R-CNN 模型之 mAP 達到 65%的結果,經過模型參數調整後,原始影像的 mAP 從 0%提升到 33.67%,且在測試集的肺部影像上皆能準確的圈選及辨識出肺結節所在位置。在 YOLO v4 模型的部分與 Mask R-CNN 具有同樣的結果,前處理影像之準確率比原始影像更高;在 YOLO v4 模型中加入五折交叉驗證的方式後,525 張原始與前處理影像之結果遠比 478 張原始影像的結果來的好,mAP 從原始的 39.8%達到 63.32%,前處理影像的 mAP 達到 66.43%。在兩種模型接加入損失函數與 PR 曲線的觀測指標後,結果表示損失函數圖的曲線趨勢皆會隨著迭帶次

數增加從左邊的最高點急速下降,直到損失函數小於 5 之後趨於平緩;PR 曲線圖的趨勢皆會隨著精確度增加從左邊最高點緩慢下降,直到召回率小於 0.8 後急速下降且最後等於 0。 本研究結合 Python 程式語言、OpenCV 套件與運用深度學習模型架構等技術,建構一套自動辨識肺部影像的流程,未來可進一步應用於不同的醫學工程應用領域。

基於目標檢測及實例分割之協作機器人視覺應用

為了解決Labelme json的問題,作者林廷軒 這樣論述:

近年來人工智慧快速發展,機械手臂開始加入影像辨識系統以及深度學習,對於物品的偵測、臉部辨識、手部辨識、人體姿態辨識、分類等等都是重要的發展方向,在某些情況下機械手臂和人類配合才能達到最好的效果,因此協作機器人(Collaborative robot, Cobot)成為目前的趨勢。 本論文將模擬工廠內拆解零件的工作場域,以Intel RealSense D435i作為辨識用的深度攝影機,卷積神經網路使用的是自行蒐集數據後訓練出的Mask R-CNN模型,根據RGB影像以及深度影像的資訊,進行工業用零件的檢測與分類、中心點生成深度資訊、三維座標計算與轉換,最後經由TCP/IP把轉換好的座標

傳送給Niryo Ned來對目標物進行夾取,夾取之後送至目的地進行分類,整體過程展示出協作機器人搭配上影像辨識系統後進行零件夾取與分類的情境。 實驗結果顯示,訓練出來的Mask R-CNN模型呈現收斂且辨識的信心程度平均下來都保有9成以上的準確率,座標轉換的世界座標X、Y誤差分別落在5mm、6mm以內,對於本實驗的機械手臂夾取來說是可以接受的範圍。