摘要:提供了一個較大規模的基于RGB-D攝像機的人體復雜行為數據庫DMV(Dynamic and multiview)action3D,從2個固定視角和一臺移動機器人動態視角錄制人體行為。數據庫現有31個不同的行為類,包括日常行為、交互行為和異常行為類等三大類動作,收集了超過620個行為視頻約60萬幀彩色圖像和深度圖像,為機器人尋找最佳視角提供了可供驗證的數據庫。為驗證數據集的可靠性和實用性,本文采取4種方法進行人體行為識別,分別是基于關節點信息特征、基于卷積神經網絡(Convolutional neural networks,CNN)和條件隨機場(Conditional random field,CRF)結合的CRFasRNN方法提取的彩色圖像HOG3D特征,然后采用支持向量機(Support vector machine,SVM)方法進行了人體行為識別;基于3維卷積網絡(C3D)和3D密集連接殘差網絡提取時空特征,通過softmax層以預測動作標簽。實驗結果表明:DMV action3D人體行為數據庫由于場景多變、動作復雜等特點,識別的難度也大幅增大。DMV action3D數據集對于研究真實環境下的人體行為具有較大的優勢,為服務機器人識別真實環境下的人體行為提供了一個較佳的資源。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社