LabelImg 開啟 XML的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列免費下載的地點或者是各式教學

淡江大學 電機工程學系碩士班 周建興所指導 許哲儒的 結合深度學習與觸覺回饋體驗之桌上型視聽娛樂裝置設計 (2019),提出LabelImg 開啟 XML關鍵因素是什麼,來自於深度學習、觸覺回饋、物件辨識。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了LabelImg 開啟 XML,大家也想知道這些:

結合深度學習與觸覺回饋體驗之桌上型視聽娛樂裝置設計

為了解決LabelImg 開啟 XML的問題,作者許哲儒 這樣論述:

此論文設計一套桌上型影音娛樂系統為了滿足新一代的視聽影音享受,只要將一部影片放入此系統中,就能夠辨識出影片中每秒出現的物件,並且給予觸覺回饋,讓一部普通的影片瞬間擁有4D的震撼效果,增強使用者的感官體驗,故我們將此裝置命名為Sense。 在Sense的硬體設計方面採用模組式設計,可以在面對不同類型的的影片有更多不一樣的搭配,每個模組都有獨特的代號,系統會去偵測目前模組的位置和類型給予正確的回饋,目前一共有六種不同的觸覺回饋,這六種模組可以單獨使用,也可以給予到複合式的回饋,例如:水+風可以達到冷的效果,這六種模組加上排列組合就能夠應對目前絕大部分的情境。 在軟體方面Sense設計

了一個專用的影片播放介面,因為每一部影片都必須經過前處理才能觀看,但是前處理的時間相當短,而且可以做到完全沒有延遲。前處理的步驟主要是將影片先轉換幀數並且每秒切成一張照片,再將每一張透過google cloud vision或自己訓練的模型去辨別照片場景物件,每張照片都會決定這六個模組是否要開啟,假如該照片場景物件內有可以對應的觸覺回饋,該照片則會標示對應模組開啟,最後輸出的結果會剛好跟影片的時間軸每一秒對應起來,因此在觀看影片時每秒都會開啟相對應的回饋。 在場景辨識時,因為google cloud vision並不能有效的辨識出動畫影片,所以此論文為此訓練了一個SSD模型去辨識動畫,以

達成此系統的完整性,特別以火來當作訓練的示範,證明此方法的可行性,若有其他類別的資料數據也能完成相同訓練。