相關文章
Xsens動作捕捉系統采用最新的慣性傳感技術,解決過去慣性動捕在雙腳同時離地、跳躍、爬樓等動作會產生漂移的問題。啟動速度快、抗磁干擾能力強,且不受環境光線與空間距離的限制,純凈的動作捕捉數據不需要進行后處理即可錄制完成,非常適用于各種研究、人體工程學、康復領域、體育運動及實時表演應用。
ErgoHMI Web桌面端人機交互測試系統,遵照標準化可用性測試流程,提供便捷的實驗設計功能,具備網頁/原型興趣區自動識別與自定義編輯、測試過程高保真記錄、多模態數據同步采集、可視化分析報告等功能,支持在測試過程中實時采集與監控被試的各項數據指標,為評價產品的有效性、滿意度和可用性提供定量化的數據依據,為產品開發人員提供了從實驗設計到結果報告的可用性測試環節。
ErgoLAB Behavior行為觀察分析模塊,采用標準攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態與表現形式,形成行為-時間-頻次數據庫,記錄與編碼分析個體在活動中的行為頻次或習慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現,進一步了解人們行為與心理反應的相互關系。
ErgoLAB Emotion面部表情分析模塊,是一款專業的面部表情分析與狀態識別工具。系統結合機器學習算法與圖像識別技術,利用面部肌肉特征點計算和分類表情狀態,自動編碼多種基本表情、精確計算情感效價,系統可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結合AI狀態識別進一步實現對操作人員的分心、疲勞、應激等狀態的自動識別以及特定環境條件下的預警反饋。
動作捕捉系統用于準確測量運動物體在三維空間中的運動狀態與空間位置。ErgoLAB Motion是的全新可穿戴運動捕捉與人機工效/生物力學分析系統,配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現實應用與實時的現場人因工效科學研究,如安全生產、人機交互、運動分析,動作姿勢傷害評估等。
空間定位系統支持多類型的時空數據采集,包括室內空間位置追蹤、虛擬現實場景空間位置追蹤以及真實現場環境的空間位置追蹤。基于ErgoLAB多維度數據時空同步算法模型,可同步采集超過40種時間和空間位置行為等數據,研究人員可以在任何環境下進行時空行為研究,完成多維度客觀數據的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設計、數據挖掘等技術,支持進行信息可視化、科學可視化與可視分析不同的層次研
電話
微信掃一掃