ErgoVR可穿戴行走虛擬現(xiàn)實系統(tǒng)以人-信息-物理系統(tǒng)理論為基礎(chǔ),以人-機-環(huán)境同步技術(shù)為核心,可對接CATIA,UG/NX,Pro/E,SpaceClaim等主流CAD軟件以及Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開發(fā)平臺制作的產(chǎn)品原型,進行VR原型產(chǎn)品定量化人機交互測試、評價及定量化分析,解決各制造業(yè)、工業(yè)設(shè)計、人因工程、環(huán)境行為、建筑設(shè)計等領(lǐng)域中的裝備設(shè)計、人機界面設(shè)計、產(chǎn)品設(shè)計、工業(yè)設(shè)計、產(chǎn)品可用性測試等問題。
覆蓋項目與被試信息管理-云實驗設(shè)計-主客觀多維度數(shù)據(jù)采集-大數(shù)據(jù)云存儲-多維度數(shù)據(jù)同步與交叉分析-測試報告生成與導(dǎo)出的實驗標準化測試全流程,保證項目的完整性以及測試結(jié)果的精準性。
完整的云項目管理涵蓋整個科學(xué)研究流程,包括云項目管理、實驗設(shè)計、同步記錄、數(shù)據(jù)回放、信號處理與分析、測試報告導(dǎo)出。可管理與編輯每位被試的相關(guān)信息,如性別、年齡、自定義屬性等。
支持使用Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開發(fā)平臺制作的產(chǎn)品原型,均可通過ErgoVR 人因分析引擎進行實時數(shù)據(jù)通訊,便捷地導(dǎo)入實驗設(shè)計系統(tǒng)進行人機交互分析,系統(tǒng)自動計算與識別所有模型。
支持傳統(tǒng)的可用性測試研究方法,包括問卷、量表和行為范式等主觀評價方式;同時實驗室可采用定量的研究方法,在可用性測試過程中采集多維度數(shù)據(jù)實現(xiàn)客觀定量化評價,彌補了傳統(tǒng)測試評價方法中缺乏實時性、主觀性強、易受社會環(huán)境影響等因素。
可實時采集與綜合分析用戶與虛擬場景交互下的多模態(tài)數(shù)據(jù)定量化反應(yīng),包括時空軌跡數(shù)據(jù)、眼動數(shù)據(jù)、生理數(shù)據(jù)、腦電數(shù)據(jù)、腦成像、生物力學(xué)、環(huán)境、動作捕捉數(shù)據(jù)、行為編碼及交互數(shù)據(jù)等。
支持所有原始數(shù)據(jù)、處理數(shù)據(jù)以及可視化分析報告的導(dǎo)出。
虛擬現(xiàn)實呈現(xiàn)技術(shù)實現(xiàn)畫面的無縫拼接和融合,呈現(xiàn)身臨其境的3D沉浸感。整個實驗室空間均為行走虛擬現(xiàn)實系統(tǒng)的實驗場地,被試可以不受任何限制自由行走,模擬真實世界的行為,采集的數(shù)據(jù)更真實。
支持多人在同一個虛擬現(xiàn)實場景中協(xié)同完成人機交互任務(wù),并進行本地或云端人機環(huán)境數(shù)據(jù)同步的定量評價,測試者的交互動作均細致地呈現(xiàn)在同一個虛擬世界中,即時互動感大大增強。
ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動追蹤、生理測量、生物力學(xué)、腦電、腦成像、行為、人機交互、動作姿態(tài)、面部表情、主觀評 價、時空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標。平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)云管理。