nvidia 104新竹的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

國立臺北科技大學 機械工程系機電整合碩士班 蕭俊祥所指導 許昇翔的 應用深度學習與機器人作業系統之AGV研發 (2018),提出nvidia 104新竹關鍵因素是什麼,來自於深度學習、AGV、YOLO V3、ROS System。

而第二篇論文國立虎尾科技大學 資訊管理系碩士班 陳大正所指導 任家輝的 以深度學習為基礎之影像識別技術於教學管理之應用 (2016),提出因為有 深度學習、教學管理、身分辨識、人臉辨識、卷積神經網路的重點而找出了 nvidia 104新竹的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了nvidia 104新竹,大家也想知道這些:

應用深度學習與機器人作業系統之AGV研發

為了解決nvidia 104新竹的問題,作者許昇翔 這樣論述:

本研究使用深度學習YOLO V3取代傳統影像辨識來避障,藉由深度學習的高適應性來辨識目標物體的位置。通過YOLO V3架構下更改其學習參數,使用基底網路為 Darknet-53的網絡來訓練人的樣本,使AGV能藉由訓練結果來精準避開人,避免AGV發生碰撞的情況,並將訓練完的權重導入ROS系統。AGV系統整合在ROS系統下,結合導航、避障、建構地圖,應用雷射測距儀建立2D地圖、慣性陀螺儀維持AGV的姿態及超音波資訊,並搭配Kinect建立3D地圖及人員的辨識,藉由建立好的2D及3D地圖 (同時更新地圖及定位技術即SLAM),進而使用地圖的資訊完成自動導航功能,而AGV在行走的環境裡往往都會與人在

同一個工作環境下,所以本研究將深度學習結果導入AGV,當AGV在導航過程中遇到學習的目標,AGV將會停止行走,待目標物離開偵測範圍,AGV才會繼續行駛至目標位置。本研究使用深度學習來改善傳統影像偵測人的效果不佳的問題,進而改善機器人避障的模式,透過深度學習取代傳統影像。開發完成的AGV經實驗測試誤差精度為3.4公分,角度誤差為7°,且能完成SLAM及導航與避障功能。

以深度學習為基礎之影像識別技術於教學管理之應用

為了解決nvidia 104新竹的問題,作者任家輝 這樣論述:

本論文主要探討如何使用深度學習神經網路中的卷積神經網路透過即時攝影的方式持續性的觀察學生的學習狀態提供教師進行教學管理。以往傳統的人臉辨識是透過幾何的方式去鎖定人臉五官的位置,容易受到遮蔽而造成辨識不良。除了需要正面面對攝影機,還必須清楚呈現五官的位置。若要實際應用在課堂上,學生的臉部可能因為不同的方向或狀態而由所遮蔽,無法準確地進行持續性的辨識。因此本研究使用一種透過擷取影像特徵用於圖像辨識的卷積神經網路,進行學生人臉的辨識。但由於一間教室有多位學生,透過單一攝影機的拍攝,難以辨識所有的學生,且容易把背景的特徵也辨識進去而造成誤判。因此以往都是使用每個學生座位前放置一台攝影機,對攝影機中的

人臉進行辨識。而本研究使用Faster R-CNN基於其區域建議網路對畫面中的人臉影像進行截取,再透過人臉辨識模型進行訓練。除了可以讓一張畫面中的多位學生進行身分辨識,更能夠排除掉不必要的背景,避免誤判。本研究所訓練之人臉身分辨識模型經測試後準確率高達99%,測試損失值為0.0278137。而除了畫面中的學生身分辨識外,本研究更透過情緒辨識模型去分析其上課時的當下情緒並記錄統計,去了解學生上課時的心情。最終透過WebSocket傳遞參數驅動辨識,並以FLUX架構建立一套線上教學管理系統。將結果透過網頁的形式呈現出來,供教師進行教學管理評量之用途。