簡要描述:研究者可以使用ErgoLAB人-機(jī)-環(huán)境同步云平臺完成個性化與目標(biāo)化的實(shí)驗(yàn)設(shè)計(jì),實(shí)現(xiàn)項(xiàng)目的連續(xù)性研究。它依據(jù)科學(xué)實(shí)驗(yàn)研究標(biāo)準(zhǔn)過程,支持實(shí)驗(yàn)測試全過程,滿足廣泛實(shí)驗(yàn)刺激材料設(shè)計(jì)需求,更人性化的實(shí)驗(yàn)屬性設(shè)置與交互方式。適用于計(jì)算機(jī)屏幕、移動終端、虛擬現(xiàn)實(shí)、真實(shí)現(xiàn)場多種研究場景。
詳細(xì)介紹
品牌 | 津發(fā)科技 | 產(chǎn)地類別 | 國產(chǎn) |
---|---|---|---|
應(yīng)用領(lǐng)域 | 建材,交通,航天,汽車,綜合 |
科學(xué)高效實(shí)驗(yàn)流程
Scientific Efficient Experimental Flow
項(xiàng)目管理
管理項(xiàng)目信息、記錄信息(記錄持續(xù)時間、記錄創(chuàng)建時間、記錄時長等)、被試信息(姓名、性別、職業(yè)、參與實(shí)驗(yàn)組別以及自定義添加屬性)以及問卷調(diào)查(選擇題、問答題,支持網(wǎng)頁填寫與客戶端填寫,可自定義權(quán)重與評分方式)等,支持多維度的數(shù)據(jù)交叉篩選;支持*基于云端系統(tǒng)管理項(xiàng)目內(nèi)所有多模態(tài)數(shù)據(jù)的呈現(xiàn)、處理與分析信息。
實(shí)驗(yàn)設(shè)計(jì)
研究者可以使用ErgoLAB人-機(jī)-環(huán)境同步云平臺完成個性化與目標(biāo)化的實(shí)驗(yàn)設(shè)計(jì),實(shí)現(xiàn)項(xiàng)目的連續(xù)性研究。它依據(jù)科學(xué)實(shí)驗(yàn)研究標(biāo)準(zhǔn)過程,支持實(shí)驗(yàn)測試全過程,滿足廣泛實(shí)驗(yàn)刺激材料設(shè)計(jì)需求,更人性化的實(shí)驗(yàn)屬性設(shè)置與交互方式。適用于計(jì)算機(jī)屏幕、移動終端、虛擬現(xiàn)實(shí)、真實(shí)現(xiàn)場多種研究場景。
同步采集
人機(jī)環(huán)境多模態(tài)數(shù)據(jù)同步技術(shù):同步采集眼動、生理、腦電、動作捕捉、交互行為、面部表情與狀態(tài)識別以及車輛與道路、環(huán)境等數(shù)據(jù),同一時刻同步記錄多模態(tài)數(shù)據(jù),實(shí)現(xiàn)在同一時間點(diǎn)或同一時間段內(nèi),多指標(biāo)的相互印證與補(bǔ)充,增加研究結(jié)果的可信度及數(shù)據(jù)的多元化與可視化。
同步回放
記錄個體在操作某一任務(wù)時的行為視頻,以及對應(yīng)的眼動數(shù)據(jù)、生理數(shù)據(jù)、動作姿態(tài)等客觀指標(biāo),在同一時間軸進(jìn)行數(shù)據(jù)呈現(xiàn)。支持從不同角度進(jìn)行數(shù)據(jù)分析,時間軸上顯示:Event事件點(diǎn)分析:包括不同的刺激出現(xiàn)時刻(圖片、視頻等)、鍵盤、鼠標(biāo)、手柄控制、SyncBox Marker,以及標(biāo)記自定義分析事件點(diǎn);Segment片段分析:自動劃分并標(biāo)記各種刺激材料呈現(xiàn)時間片段以及自定義分析片段,接下來進(jìn)行數(shù)據(jù)處理與統(tǒng)計(jì)。
數(shù)據(jù)分析
對多模態(tài)數(shù)據(jù)具有針對性的信號處理模塊:包含EEG腦電分析、EMG肌電分析、HRV心率變異性分析、RESP呼吸分析、EDA皮電分析、EyeTracking眼動追蹤分析、Observation行為觀察分析、FaceCoding面部表情分析、Motion動作捕捉分析,Vehicle車輛分析、Driver駕駛?cè)朔治?,對于生物力學(xué)信號、環(huán)境信號(溫度、適度、噪音等)、皮溫、眼電等信號提供General基礎(chǔ)分析模塊,滿足各種數(shù)據(jù)處理。同時可導(dǎo)出所有指標(biāo)的原始數(shù)據(jù),支持二次計(jì)算與開發(fā)。
綜合統(tǒng)計(jì)
采用時鐘同步方法范式,系統(tǒng)內(nèi)所有數(shù)據(jù)均可進(jìn)行綜合交叉分析,進(jìn)行多指標(biāo)相互印證與結(jié)果補(bǔ)充,使研究結(jié)果更加可靠與精確。系統(tǒng)可以根據(jù)被試屬性(如性別、年齡、組別等)與記錄信息(記錄時長,創(chuàng)建時間,記錄類型,記錄組別等)進(jìn)行數(shù)據(jù)篩選,或者作為自變量/控制變量進(jìn)行統(tǒng)計(jì)分析。綜合統(tǒng)計(jì)分析包含條件篩選與結(jié)果輸出:其中條件篩選可以實(shí)現(xiàn)對多模態(tài)數(shù)據(jù)求取交集或并集,結(jié)果輸出可自定義輸出指標(biāo)。系統(tǒng)一鍵導(dǎo)出所有數(shù)據(jù)結(jié)果。
實(shí)驗(yàn)報告
生成以表格和圖形相結(jié)合的方式展示實(shí)驗(yàn)報告,表格數(shù)據(jù)包括時域數(shù)據(jù)、頻域數(shù)據(jù)、非線性分析數(shù)據(jù)以及事件相關(guān)數(shù)據(jù);可視化的圖形展示如頻譜圖、散點(diǎn)圖以及多元數(shù)據(jù)統(tǒng)計(jì)圖等。科學(xué)直觀的了解數(shù)據(jù)分布及結(jié)果統(tǒng)計(jì),且所有數(shù)據(jù)支持以xlsx/.csv格式導(dǎo)出。
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對用戶體驗(yàn)的影響
研究如何通過城市規(guī)劃與建筑設(shè)計(jì)來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信