ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心”的“人-信息系統(tǒng)交互”評估產(chǎn)品,可以對信息產(chǎn)品交互設(shè)計原型進行交互行為分析、可用性測試、人機交互評估、人因設(shè)計與工效學(xué)評價,廣泛用于移動終端APP應(yīng)用程序、AI人機智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機交互評估測試和評價。
用戶可在電腦端與移動終端同步進行實驗設(shè)計,如設(shè)置刺激分組、呈現(xiàn)順序和切換方式等,可實時無線采集被試在移動端與原型交互的眼動數(shù)據(jù)和交互數(shù)據(jù)。自動高效完成實驗流程
自動計算并識別所有原型組件信息,點選即可將其為興趣區(qū)域;支持自定義繪制任何形狀和位置的興趣區(qū)。實驗設(shè)計階段與結(jié)果回放階段均可進行編輯,交互數(shù)據(jù)自動統(tǒng)計并輸出可視化報告。
基于任意類型的信息化終端載體進行產(chǎn)品與原型的可用性測試,對于同一產(chǎn)品應(yīng)用于不同尺寸的顯示載體時,用戶只需繪制一次興趣區(qū),系統(tǒng)將自動調(diào)節(jié)用于所有尺寸的顯示載體進行交互數(shù)據(jù)的計算與分析。
基于任意類型的信息化終端載體進行應(yīng)用程序與原型的測試分析,可直接識別原型中的所有組件并以像素位置進行計算,實現(xiàn)在交互測試過程中的實驗設(shè)計階段、結(jié)果回放以及數(shù)據(jù)分析階段,均能保證刺激材料不失真,客觀還原所有交互設(shè)置及數(shù)據(jù)反應(yīng)。
直觀分析用戶的重點交互區(qū)域,提供可視化熱圖、軌跡圖等分析方法。
提供相關(guān)興趣區(qū)連帶分析功能,可將多個目標興趣區(qū)自定義導(dǎo)入序列,包括對AOI的分析和對AOI組別的分析,可用于探究一個興趣區(qū)的內(nèi)容是否促使被試查看另一個興趣區(qū)的序列性關(guān)系。
提供分析不同記錄相同片段間,被試訪問AOI順序的相似度,并計算矩陣相似度系統(tǒng)。有助于判斷記錄間操作的一致性與合規(guī)性。
實時記錄各種刺激材料的交互數(shù)據(jù),如頁面瀏覽、跳轉(zhuǎn)及切換過程中發(fā)生的人機交互行為以及所有AOI的數(shù)據(jù)統(tǒng)計。
ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動追蹤、生理測量、生物力學(xué)、腦電、腦成像、行為、人機交互、動作姿態(tài)、面部表情、主觀評 價、時空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標。平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)云管理。