ssd安裝位置的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

ssd安裝位置的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦董洪義寫的 深度學習之PyTorch物體檢測實戰 和PCuSER研究室的 Windows 10究極攻略!升級、設定、優化、問題排除,高手活用技巧速學實戰【地表最強進化版】都 可以從中找到所需的評價。

這兩本書分別來自機械工業 和PCuSER電腦人文化所出版 。

國立交通大學 多媒體工程研究所 袁賢銘、邱維辰所指導 許硯的 一個基於眼動資料的弱監督物體偵測網路 (2020),提出ssd安裝位置關鍵因素是什麼,來自於物件偵測、眼動研究、深度學習。

而第二篇論文國立聯合大學 機械工程學系碩士班 連啓翔所指導 劉建寬的 跨平台整合複合式深度學習影像與機械手臂之研究 (2020),提出因為有 機械手臂、機器人作業系統、深度學習、影像辨識、視覺系統的重點而找出了 ssd安裝位置的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了ssd安裝位置,大家也想知道這些:

深度學習之PyTorch物體檢測實戰

為了解決ssd安裝位置的問題,作者董洪義 這樣論述:

《深度學習之PyTorch物體檢測實戰》從概念、發展、經典實現方法等幾個方面系統地介紹了物體檢測的相關知識,重點介紹了FasterRCNN、SDD和YOLO這三個經典的檢測器,並利用PyTorch框架從代碼角度進行了細緻講解。另外,《深度學習之PyTorch物體檢測實戰》進一步介紹了物體檢測的輕量化網路、細節處理、難點問題及未來的發展趨勢,從實戰角度給出了多種優秀的解決方法,便於讀者更深入地掌握物體檢測技術,從而做到在實際專案中靈活應用。 《深度學習之PyTorch物體檢測實戰》共10章,涵蓋的主要內容有物體檢測與PyTorch框架基礎概念與背景知識;PyTorch基礎知識;基礎卷積網路Ba

ckbone;兩階經典檢測器FasterRCNN;單階多層檢測器SSD;單階經典檢測器YOLO;模型加速之輕量化網路;物體檢測細節處理;物體檢測難點問題;物體檢測的未來發展。 《深度學習之PyTorch物體檢測實戰》內容豐富,講解通俗易懂,案例典型,實用性強,特別適合PyTorch框架愛好者和物體檢測相關從業人員閱讀,也適合深度學習和電腦視覺領域的研究人員閱讀。另外,《深度學習之PyTorch物體檢測實戰》還適合作為深度學習培訓機構的教材使用。   董洪義本科、碩士均畢業於北京航空航太大學。深度學習與PyTorch資深愛好者。現任百度自動駕駛高級演算法工程師。曾擔任Pha

ntomTiger演算法負責人、地平線智慧駕駛部門演算法實習生、北航國際拓展團團長。曾經被評為北京航空航太大學年度人物。曾經獲得了Kaggle競賽銀牌。本科期間成績年級第一,曾前往日本、英國、比利時、荷蘭等國的知名學校訪問交流。研究方向為自動駕駛感知、智慧型機器人與電腦視覺。有3年以上的深度學習研發經驗。 第1篇  物體檢測基礎知識 第1章  淺談物體檢測與PyTorch 2 1.1  深度學習與電腦視覺 2 1.1.1  發展歷史 2 1.1.2  電腦視覺 7 1.2  物體檢測技術 9 1.2.1  發展歷程 10 1.2.2  技術應用領域 11 1.2.3  評價

指標 12 1.3  PyTorch簡介 17 1.3.1  誕生與特點 17 1.3.2  各大深度學習框架對比 17 1.3.3  為什麼選擇PyTorch 19 1.3.4  安裝方法 20 1.4  基礎知識準備 22 1.4.1  Linux基礎 22 1.4.2  Python基礎 24 1.4.3  高效開發工具 29 1.5  總結 36 第2章  PyTorch基礎 37 2.1  基本資料:Tensor 37 2.1.1  Tensor資料類型 37 2.1.2  Tensor的創建與維度查看 39 2.1.3  Tensor的組合與分塊 41 2.1.4  Tensor

的索引與變形 42 2.1.5  Tensor的排序與取極值 46 2.1.6  Tensor的自動廣播機制與向量化 46 2.1.7  Tensor的記憶體共用 47 2.2  Autograd與計算圖 48 2.2.1  Tensor的自動求導:Autograd 49 2.2.2  計算圖 50 2.2.3  Autograd注意事項 51 2.3  神經網路工具箱torch.nn 52 2.3.1  nn.Module類 52 2.3.2  損失函數 55 2.3.3  優化器nn.optim 56 2.4  模型處理 59 2.4.1  網路模型庫:torchvision.models

59 2.4.2  載入預訓練模型 60 2.4.3  模型保存 61 2.5  資料處理 61 2.5.1  主流公開資料集 61 2.5.2  數據載入 63 2.5.3  GPU加速 65 2.5.4  數據視覺化 66 2.6  總結 68 第3章  網路骨架:Backbone 69 3.1  神經網路基本組成 69 3.1.1  卷積層 70 3.1.2  啟動函數層 72 3.1.3  池化層 75 3.1.4  Dropout層 76 3.1.5  BN層 77 3.1.6  全連接層 79 3.1.7  深入理解感受野 81 3.1.8  詳解空洞卷積(Dilated Co

nvolution) 82 3.2  走向深度:VGGNet 83 3.3  縱橫交錯:Inception 87 3.4  里程碑:ResNet 93 3.5  繼往開來:DenseNet 95 3.6  特徵金字塔:FPN 99 3.7  為檢測而生:DetNet 106 3.8  總結 110 第2篇  物體檢測經典框架 第4章  兩階經典檢測器:Faster RCNN 112 4.1  RCNN系列發展歷程 112 4.1.1  開山之作:RCNN 112 4.1.2  端到端:Fast RCNN 113 4.1.3  走向即時:Faster RCNN 114 4.2  準備工作 11

4 4.3  Faster RCNN總覽 115 4.4  詳解RPN 117 4.4.1  理解Anchor 117 4.4.2  RPN的真值與預測量 119 4.4.3  RPN卷積網路 120 4.4.4  RPN真值的求取 122 4.4.5  損失函數設計 124 4.4.6  NMS與生成Proposal 125 4.4.7  篩選Proposal得到RoI 126 4.5  RoI Pooling層 127 4.6  全連接RCNN模組 130 4.6.1  RCNN全連接網路 130 4.6.2  損失函數設計 131 4.7  Faster RCNN的改進演算法 131 4

.7.1  審視Faster RCNN 132 4.7.2  特徵融合:HyperNet 133 4.7.3  實例分割:Mask RCNN 134 4.7.4  全卷積網路:R-FCN 137 4.7.5  級聯網路:Cascade RCNN 139 4.8  總結 141 第5章  單階多層檢測器:SSD 142 5.1  SSD總覽 142 5.1.1  SSD的演算法流程 142 5.1.2  代碼準備工作 143 5.2  數據預處理 144 5.2.1  載入PASCAL資料集 144 5.2.2  資料增強 144 5.3  網路架構 148 5.3.1  基礎VGG結構 14

8 5.3.2  深度卷積層 149 5.3.3  PriorBox與邊框特徵提取網路 150 5.3.4  總體網路計算過程 153 5.4  匹配與損失求解 154 5.4.1  預選框與真實框的匹配 154 5.4.2  定位損失的計算 155 5.4.3  難樣本挖掘 156 5.4.4  類別損失計算 156 5.5  SSD的改進演算法 157 5.5.1  審視SSD 157 5.5.2  特徵融合:DSSD 158 5.5.3  彩虹網路:RSSD 160 5.5.4  基於SSD的兩階:RefineDet 162 5.5.5  多感受野融合:RFBNet 165 5.6  總

結 166 第6章  單階經典檢測器:YOLO 167 6.1  無錨框預測:YOLO v1 167 6.1.1  網路結構 167 6.1.2  特徵圖的意義 168 6.1.3  損失計算 169 6.2  依賴錨框:YOLO v2 171 6.2.1  網路結構的改善 171 6.2.2  先驗框的設計 173 6.2.3  正、負樣本與損失函數 175 6.2.4  正、負樣本選取代碼示例 176 6.2.5  工程技巧 179 6.3  多尺度與特徵融合:YOLO v3 180 6.3.1  新網路結構DarkNet-53 180 6.3.2  多尺度預測 181 6.3.3  S

oftmax改為Logistic 182 6.4  總結 183 第3篇  物體檢測的難點與發展 第7章  模型加速之輕量化網路 186 7.1  壓縮再擴展:SqueezeNet 188 7.1.1  SqueezeNet網路結構 188 7.1.2  SqueezeNet總結 190 7.2  深度可分離:MobileNet 191 7.2.1  標準卷積 191 7.2.2  深度可分離卷積 192 7.2.3  MobileNet v1結構 193 7.2.4  MobileNet v1總結 198 7.2.5  MobileNet v2 198 7.3  通道混洗:ShuffleN

et 200 7.3.1  通道混洗 201 7.3.2  網路結構 202 7.3.3  ShuffleNet v2 205 7.4  總結 207 第8章  物體檢測細節處理 209 8.1  非極大值抑制:NMS 209 8.1.1  NMS基本過程 210 8.1.2  抑制得分:Soft NMS 212 8.1.3  加權平均:Softer NMS 213 8.1.4  定位置信度:IoU-Net 215 8.2  樣本不均衡問題 217 8.2.1  不均衡問題分析 217 8.2.2  線上難樣本挖掘:OHEM 219 8.2.3  專注難樣本:Focal Loss 221 8

.3  模型過擬合 224 8.3.1  資料增強 226 8.3.2  L1與L2正則化 227 8.4  總結 229 第9章  物體檢測難點 230 9.1  多尺度檢測 230 9.1.1  多尺度問題 230 9.1.2  降低下取樣速率與空洞卷積 232 9.1.3  Anchor設計 233 9.1.4  多尺度訓練 235 9.1.5  特徵融合 235 9.1.6  尺度歸一化:SNIP 236 9.1.7  三叉戟:TridentNet 238 9.2  擁擠與遮擋 239 9.2.1  遮擋背景 240 9.2.2  排斥損失:Repulsion Loss 242 9.

2.3  OR-CNN 244 9.3  總結 247 第10章  物體檢測的未來發展 248 10.1  重新思考物體檢測 248 10.1.1  精度與速度的權衡 249 10.1.2  卷積網路的可解釋性與穩定性 249 10.1.3  訓練:微調還是隨機初始化 250 10.1.4  考慮物體間關係的檢測 251 10.1.5  優化卷積方式 252 10.1.6  神經架構搜索:NAS 253 10.1.7  與產業結合的創新 255 10.2  擺脫錨框:Anchor-Free 257 10.2.1  重新思考Anchor 257 10.2.2  基於角點的檢測:CornerNe

t 258 10.2.3  檢測中心點:CenterNet 262 10.2.4  錨框自學習:Guided Anchoring 264 10.3  總結 266   隨著深度學習的飛速發展,電腦視覺技術取得了令人矚目的成果,尤其是物體檢測這一基礎又核心的分支,誕生了眾多經典演算法,在自動駕駛、智慧醫療、智慧安防及搜索娛樂等多個領域都得到了廣泛應用。與此同時,誕生於2017年的PyTorch框架,憑藉其簡潔優雅、靈活易上手等優點,給開發人員留下了深刻的印象。 目前,國內圖書市場上已經出版了幾本PyTorch方面的圖書,但大多數圖書停留在淺層的概念與簡單示例的講解上,缺乏實

用性,而且也沒有一本系統講解PyTorch物體檢測方面的圖書。因此,圖書市場上迫切需要一本系統介紹PyTorch物體檢測技術的書籍。這便是筆者寫作《深度學習之PyTorch物體檢測實戰》的初衷。 《深度學習之PyTorch物體檢測實戰》是國內原創圖書市場上首部系統介紹物體檢測技術的圖書。書中利用PyTorch深度學習框架,從代碼層面講解了FasterRCNN、SSD及YOLO這三大經典框架的相關知識,並進一步介紹了物體檢測的細節與難點問題,讓讀者可以全面、深入、透徹地理解物體檢測的種種細節,並能真正提升實戰能力,從而將這些技術靈活地應用到實際開發中,享受深度學習帶來的快樂。 《深度學習之P

yTorch物體檢測實戰》特色 1.系統介紹了PyTorch物體檢測技術 《深度學習之PyTorch物體檢測實戰》深入物體檢測這一基礎又核心的技術,從其誕生背景、主流演算法、難點問題、發展趨勢等多個角度詳細介紹了物體檢測知識,並結合代碼給出了多個演算法的實現。 從代碼角度詳細介紹了物體檢測的三大演算法 《深度學習之PyTorch物體檢測實戰》介紹了FasterRCNN、SSD及YOLO這三個影響深遠的檢測演算法,從代碼層面詳細介紹了它們所實現的每一個細節與難點,並進行了優缺點分析,而且給出了多種優化演算法。 涵蓋所有主流的物體檢測演算法 《深度學習之PyTorch物體檢測實

戰》幾乎涵蓋所有主流的物體檢測演算法,包括VGGNet、ResNet、FPN、DenseNet和DetNet等卷積基礎網路,以及從FasterRCNN、HyperNet、MaskRCNN、SSD、RefineDet、YOLOv1到YOLOv3、RetinaNet、CornerNet和CenterNet等物體檢測演算法,呈現給讀者一個完整的知識體系。 給出了多個實際的物體檢測實例,有很強的實用性 《深度學習之PyTorch物體檢測實戰》對PyTorch的知識體系進行了較為精煉的介紹,還結合物體檢測演算法重點介紹了PyTorch實現的多個物體檢測實例。因此《深度學習之PyTorch物體檢

測實戰》不僅是一本很好的PyTorch框架學習書籍,更是一本PyTorch物體檢測實戰寶典。 對物體檢測技術常見的細節、難點及發展做了詳細分析 《深度學習之PyTorch物體檢測實戰》不僅對物體檢測技術的熱門話題做了詳細分析,例如非極大值抑制、樣本不均衡、模型過擬合、多尺度檢測、物體擁擠與遮擋等,而且對各種細節與常見問題做了詳細分析,並給出了多種解決方法。 《深度學習之PyTorch物體檢測實戰》內容 第1篇物體檢測基礎知識 本篇涵蓋第1~3章,介紹了物體檢測技術與PyTorch框架的背景知識與必備的基礎知識。主要內容包括物體檢測技術的背景與發展;物體檢測的多種有效工具;PyTor

ch背景知識與基礎知識;多種基礎卷積神經網路的相關知識與具體實現等。掌握本篇內容,可以為讀者進一步學習物體檢測技術奠定基礎。 第2篇物體檢測經典框架 本篇涵蓋第4~6章,介紹了FasterRCNN、SSD與YOLO三大經典演算法的思想與實現。主要內容包括FasterRCNN兩階演算法的思想;錨框Anchor的意義與實現;FasterRCNN的多種改進演算法;SSD單階演算法的思想與實現;SSD的資料增強方法及多種改進演算法;YOLO單階演算法的三個版本演變過程及具體實現等。掌握本篇內容,可以讓讀者從代碼角度學習物體檢測的種種細節。 第3篇物體檢測的難點與發展 本篇涵蓋第7~10章,介紹了物

體檢測技術的細節、難點及未來發展。主要內容包括針對模型加速的多種輕量化網路思想與實現;非極大值抑制;樣本不均衡及模型過擬合等物體檢測細節問題的背景知識與解決方法;多尺度、擁擠與遮擋等物體檢測難點問題的背景知識與解決方法;多種擺脫錨框的檢測演算法;物體檢測的未來發展趨勢等。掌握本篇內容,可以讓讀者更加深入地學習物體檢測的相關技術。 《深度學習之PyTorch物體檢測實戰》讀者物件 需要全面學習物體檢測技術的人員; PyTorch框架愛好者和研究者; 電腦視覺從業人員與研究者; 深度學習從業人員與愛好者; 自動駕駛、智慧安防等領域的開發人員; 人工智慧相關產業的從業人員; 電腦、機器人等專業的高

校學生。 閱讀建議 沒有物體檢測與PyTorch基礎的讀者,建議從第1章順次閱讀並演練每一個實例。 有一定PyTorch與物體檢測基礎的讀者,可以根據實際情況有重點地選擇閱讀各個演算法的細節。 對於每一個檢測演算法,建議讀者先閱讀一下原論文,多思考演算法設計的動機與目的,並重點思考如何用代碼實現,這會加深讀者對檢測演算法的理解。原論文的下載地址和《深度學習之PyTorch物體檢測實戰》原始程式碼檔一起提供。 多思考各種物體檢測演算法的優缺點、相互之間的聯繫與區別,以及可以優化和改進的細節等,形成完整的知識體系樹,這樣會進一步加深讀者對知識的理解。 配書資源獲取方式 《深度學習之PyTorc

h物體檢測實戰》涉及的全部原始程式碼都放在了GitHub上,需要讀者自行下載。下載地址見圖書。 有些章節的代碼較多,但在書中僅給出了重要的片段代碼,完整代碼以GitHub上的代碼為准。 另外,讀者也可以登錄華章公司的網站www.hzbook.com,搜索到《深度學習之PyTorch物體檢測實戰》,然後按一下“資料下載”按鈕,即可在本書頁面上找到相關的下載連結。 致謝 《深度學習之PyTorch物體檢測實戰》的編寫得到了許多人的幫助。可以說,《深度學習之PyTorch物體檢測實戰》是多人共同努力的結晶。感謝北京源智天下科技有限公司的王蕾,她在稿件整理方面幫我做了大量的工作!感謝王田苗教授、陶吉

博士、夏添博士、侯濤剛博士、嚴德培、單增光、王策、鄂俊光、李成、丁甯、付航、高鵬、朱本金、彭強、王粟瑤、張騰、王兆瑋、黃彬效和拓萬琛等人,他們對《深度學習之PyTorch物體檢測實戰》提出了許多寶貴的意見和建議!感謝我的女朋友及家人,他們一直以來都對我鼓勵有加,給我寫作《深度學習之PyTorch物體檢測實戰》以最大的動力!感謝為《深度學習之PyTorch物體檢測實戰》付出辛勤工作的每一位編輯,他們認真、細緻的工作讓《深度學習之PyTorch物體檢測實戰》品質提高不少! ……  

ssd安裝位置進入發燒排行的影片

VSTECS 特約網上商店: https://shop.vstecs.hk/categories/wd
以優惠價HK$1099購買 My Passport SSD 1TB+ 旅遊轉換插座
優惠碼 : MEEEEWDPSSD1TB
以優惠價HK$2099購買 My Passport SSD 2TB+ 旅遊轉換插座
優惠碼 : MEEEEWDPSSD2TB

優惠期至2021年4月30日

近呢幾年,使用SSD嘅人越嚟越多,主要喺因為SSD速度快,耐用之餘,體積亦比傳統Hard Disk細。作為一個經常拍片及外出工作嘅人,儲存嘅片段或資料閒閒地都過百GB,一個可以隨身攜帶,而又可靠嘅SSD可以話喺十分重要。今日要介紹嘅,就係呢隻由WD推出嘅My Passport SSD可攜式固態硬碟,我哋一齊嚟睇下!

呢隻My Passport SSD外殼使用金屬設計,配合埋上面嘅波浪紋,拎上手質感舒服,睇落亦都充滿現代感。佢嘅重量對比起傳統HardDisk輕,體積上亦都同一張普通信用咭差唔多Size,纖巧到連放入衫袋,或褲袋等等都完全冇問題,便攜度滿分!

除咗美觀同輕便之外,My Passport SSD仲解決咗以往Hard Disk容易受跌撞而損壞嘅問題。官方稱,My Passport SSD可以有最高1.98米嘅抗跌性能,就算唔小心跌落地,都唔會容易損壞。

呢隻Portable嘅SSD操作十分容易,無論Mac或PC,佢都無需setup,即插即用。配合USB 3.2 Gen-2介面,及NVMe技術,佢速度上可以有高達1050MB/s嘅讀取速度,及1000MB/s嘅寫入速度。加上佢隨盒已經附帶一條Type-C線,及一個Type-A插頭轉換器,等用家可以喺唔同型號電腦上使用。

如果用家想使用My Passport SSD嘅備份功能或設定密碼,就可以利用SSD入面內置嘅WD Discovery程式安裝檔,只要選擇返MAC或Windows系統版本安裝,設定後就可以輕鬆將大容量檔案備份到硬碟或雲端服務,佢亦與Apple Time Machine相容。My Passport SSD支援256-bit AES硬件加密,大家亦可以去WD Security設定密碼加強保護,用家亦都可以喺度登記埋為期5年嘅保養。

等我哋試下使用原裝嘅Type-C線睇下個讀寫表現先!雖然我哋喺一部性能十分普通嘅Notebook上試,但喺CrystalDiskMark實測下,讀寫速度分別都有超過800MB/s同780MB/s,超級快!我哋再將一個大約20GB嘅file過落去電腦試下!全程唔需要30秒,表現好好!

再試埋呢個Type-C轉換Type-A頭!我哋搵咗另一隻同樣使用Type-A頭嘅HardDisk嚟比對,同樣都係大約20GB嘅File,結果出到嚟SSD嘅傳出或傳入速度都比HardDisk快,可見SSD嘅優勢。

現時My PassportSSD仲做緊優惠!大家只要去VSTECS嘅特約網上商店,結帳時輸入螢幕上呢兩個優惠碼,就可以分別用HKD$1099嘅優惠價購買My Passport SSD 1TB+ WD旅遊插座,同HKD$2099優惠價購買My Passport SSD 2TB+ WD旅遊插座!大家仲可以選擇加多HKD$1換購WD My Passport SSD 專用保護袋,咁就有更上一層樓嘅保護喇!

呢兩個優惠碼仲放咗影片喺下面嘅Description位置,方便大家可以直接Copy上去!總括而言,呢隻WD My Passport SSD喺安全性、效能、相容性、以及操作便利度上都有十分好嘅表現,絕對喺一個好選擇!

一個基於眼動資料的弱監督物體偵測網路

為了解決ssd安裝位置的問題,作者許硯 這樣論述:

本研究提出了一個基於眼動資料的弱監督物體偵測網路。為了解決物體偵測中訓練樣本的標註並非全都是像素等級,且標註人力成本太高而導致有非常大量的訓練樣本無法被使用,我們引入了結合眼動資料和僅有圖像等級的標籤的物體偵測框架,用於在樣本標註不完整的情形下仍能依靠眼動資料所給予的位置資訊實現有效的物體偵測。在本研究中,我們先藉由眼動儀收集受測者於樣本圖中最感興趣的物體或區塊,並將這些資料以凝視點的方式呈現,並與圖像等級的類別標籤一起送入物體偵測網路中,增加候選邊界框的確定性,提供更詳盡完善的位置資訊。實驗證明了眼動資料確實對物體預測模型有正面的效果,且搭配眼動資料的模型效能能夠與輸入為像素等級的模型相提

並論,能夠在僅需要安裝眼動儀的情況下提供一個可靠且蒐集樣本資料極其方便迅速的框架。

Windows 10究極攻略!升級、設定、優化、問題排除,高手活用技巧速學實戰【地表最強進化版】

為了解決ssd安裝位置的問題,作者PCuSER研究室 這樣論述:

Windows 10上市滿周年,你升級了沒?超好用最新OS整合電腦平板雙介面,比Windows 7更潮更厲害!完整收錄安裝升級、優化加速、安全強化、系統神改、介面改造、OneDrive雲端硬碟、Edge瀏覽器活用技,更緊急追加2017微軟最新「Creators Update」第一手報導!

跨平台整合複合式深度學習影像與機械手臂之研究

為了解決ssd安裝位置的問題,作者劉建寬 這樣論述:

本論文提出具RGB-DM影像格式之深度學習模組應用於跨平台整合機械手臂系統,可針對多類別且圖案相似的物件,實現分類、定位與自動取放之任務。其硬體端使用六軸機械手臂並安裝兩台影像擷取裝置(微軟 Kinect V2以及Intel RealSense Depth Camera D435i),分別以眼到手(Eye-to-hand)和眼在手(Eye-in-hand)的方式架設。而軟體端則透過機器人作業系統(ROS)實現跨平台(Linux和Windows系統)的訊號橋接。其中Linux作業系統主要運行深度學習,包含Mask-RCNN模型與ResNet-GP模型,而機械手臂的運動控制則在Windows作業

系統下執行C++程式。本研究先利用Kinect V2擷取全視野之實驗平台的影像,其有助於機械手臂進行初步且快速的定位,再使用眼在手系統拍攝局部但高解析的影像,並搭配深度學習模組獲得目標物的位置資訊。其運作流程如下:首先,利用D435i攝影機擷取RGB-D影像,將其中的RGB影像輸入至客製化Mask-RCNN模型中,並獲得各物件的類別以及遮罩影像M。然後將分割結果合併原始影像形成四通道的RGB-M影像,再把RGB-M影像資料輸入至ResNet-GP模型,並且成功地預測出零件的夾取框資訊。此外深度資訊藉由深度影像(D)取得。經過座標轉換取得機械手臂的移動資訊後,再透過ROS將資訊傳遞至Window

s系統並執行機械手臂的運動控制,方可準確得移動至物件位置,實現物件分類以及取放之動作。實驗結果顯示:本研究成功整合D435i’s Mask-RCNN模型和ResNet-GP模型為具RGB-DM影像格式之深度學習模組,同時演示其可有效地預測出多重、多類別且緊密重疊零件的類別與夾取框資訊。我們利用自定義的評估準則量化每次的取放之動作,實驗測試84%以上的物件可達最嚴謹可容許的誤差範圍(位置誤差小於±2.5mm和角度誤差小於±7°)。由於 ROS 應用程序由獨立的計算過程組成,因此本研究具有故障隔離、快速且模組化的開發以及程式碼可重用性等優點,所以我們的通信架構可簡易地擴充致動器或其他感測裝置,以實

現智慧製造系統。