




簡要(yao)描述:ErgoLAB人(ren)(ren)(ren)(ren)(ren)機(ji)環境(jing)同(tong)步(bu)云平臺(tai),是集科學化、集成化、智能(neng)化于一體的系(xi)統(tong)(tong)(tong)工(gong)(gong)(gong)程工(gong)(gong)(gong)具與解(jie)決方案產品,可以與人(ren)(ren)(ren)(ren)(ren)、機(ji)器、環境(jing)數據進行同(tong)步(bu)采集與綜合人(ren)(ren)(ren)(ren)(ren)機(ji)工(gong)(gong)(gong)效分(fen)析;尤其是人(ren)(ren)(ren)(ren)(ren)工(gong)(gong)(gong)智能(neng)時代根(gen)據人(ren)(ren)(ren)(ren)(ren)-信息-物理系(xi)統(tong)(tong)(tong)(HCPS)理論(lun),對人(ren)(ren)(ren)(ren)(ren)-機(ji)-環境(jing)系(xi)統(tong)(tong)(tong)從人(ren)(ren)(ren)(ren)(ren)-信息系(xi)統(tong)(tong)(tong),人(ren)(ren)(ren)(ren)(ren)-物理系(xi)統(tong)(tong)(tong)以及系(xi)統(tong)(tong)(tong)整體分(fen)別進行人(ren)(ren)(ren)(ren)(ren)機(ji)交互(hu)評(ping)估(gu)以及人(ren)(ren)(ren)(ren)(ren)因與工(gong)(gong)(gong)效學的智能(neng)評(ping)價。
產(chan)品型號:ErgoLAB
廠商性質:生產廠家
更新時間:2025-11-13
訪 問(wen) 量:25464詳細介紹
| 品牌 | 津發科技 | 產地類別 | 國產 |
|---|---|---|---|
| 應用領域 | 道路/軌道/船舶,航空航天,公安/司法,汽車及零部件,綜合 |
ErgoLAB人(ren)機(ji)環(huan)境(jing)同步云(yun)平臺(tai),是集(ji)科學化、集(ji)成化、智能(neng)化于一體(ti)的(de)(de)系(xi)統(tong)(tong)(tong)工程工具(ju)與解決方案產品(pin),可以(yi)與人(ren)、機(ji)器、環(huan)境(jing)數據進行(xing)同步采集(ji)與綜合(he)人(ren)機(ji)工效分析;尤其是人(ren)工智能(neng)時(shi)代根據人(ren)-信息(xi)-物理系(xi)統(tong)(tong)(tong)(HCPS)理論,對人(ren)-機(ji)-環(huan)境(jing)系(xi)統(tong)(tong)(tong)從人(ren)-信息(xi)系(xi)統(tong)(tong)(tong),人(ren)-物理系(xi)統(tong)(tong)(tong)以(yi)及(ji)系(xi)統(tong)(tong)(tong)整體(ti)分別進行(xing)人(ren)機(ji)交互評估以(yi)及(ji)人(ren)因與工效學的(de)(de)智能(neng)評價。

智能化人機環境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設計、數據同步采集、信號處理與數據分析到綜合統計與輸出可視化報告,對于特殊領域客戶可定制云端的人因大數據采集與AI狀態識別。具備ErgoVR虛擬現實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環境模擬實時同步人因工程研究解決方案,可以在不同的實驗環境為人-機-環境研究的發展提供進一步的主客觀數據支撐與科學指導。
其(qi)中,云(yun)實(shi)驗設計模塊具(ju)備多(duo)(duo)時(shi)間軸、隨機(ji)化(hua)呈(cheng)現等功能、可(ke)以創建復雜(za)的(de)實(shi)驗刺激,支持(chi)(chi)任(ren)(ren)何類型(xing)的(de)刺激材料,包括自定義(yi)問卷、量(liang)(liang)表(biao)與(yu)(yu)實(shi)驗范式(shi)(系統包含常(chang)用量(liang)(liang)表(biao)與(yu)(yu)實(shi)驗范式(shi)以及(ji)數據常(chang)模,如(ru)(ru)NASA-TLX認知(zhi)負荷量(liang)(liang)表(biao)、PANAS情緒效價量(liang)(liang)表(biao)、Stroop任(ren)(ren)務、MOT多(duo)(duo)目標追(zhui)蹤、注意力(li)訓練任(ren)(ren)務等)、聲(sheng)(sheng)光電刺激與(yu)(yu)實(shi)時(shi)API行為編(bian)碼/TTL事件標記、多(duo)(duo)媒體(ti)刺激編(bian)輯如(ru)(ru)文本、聲(sheng)(sheng)音、圖像,視頻(含360度圖片和視頻),在線網站(zhan)和手機(ji)應用程(cheng)序,以及(ji)所有的(de)原型(xing)設計材料,也支持(chi)(chi)與(yu)(yu)如(ru)(ru)下(xia)刺激實(shi)時(shi)同步采(cai)集:如(ru)(ru)場景攝(she)像機(ji)、軟件,游戲,VR,AR程(cheng)序等。兼容第(di)三方軟件刺激編(bian)譯軟件,如(ru)(ru)E-prime,Superlab,TobiiPro Lab等。
ErgoLAB人機(ji)(ji)(ji)環(huan)境(jing)同步云平臺采用主客觀(guan)結合多維度數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)驗證的方法,數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)同步種類包(bao)(bao)含(han)(han)大腦認知數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(EEG腦機(ji)(ji)(ji)交(jiao)(jiao)互(hu)與(yu)腦電測量(liang)系(xi)(xi)統(tong)(tong)、fNIRS高密度近紅外腦功(gong)能成像系(xi)(xi)統(tong)(tong)),視覺數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(Eyetracking視線(xian)交(jiao)(jiao)互(hu)與(yu)眼動追蹤系(xi)(xi)統(tong)(tong)),生(sheng)理信號數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(生(sheng)理儀含(han)(han):GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)觀(guan)察、肢體(ti)動作(zuo)與(yu)面(mian)部表(biao)情(qing)(基本情(qing)緒、情(qing)緒效價(jia)、微表(biao)情(qing)等(deng))數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)、生(sheng)物力學數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(拉力、握力、捏力、壓力…),人機(ji)(ji)(ji)交(jiao)(jiao)互(hu)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(包(bao)(bao)含(han)(han)如網(wang)頁終端界(jie)面(mian)交(jiao)(jiao)互(hu)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)以(yi)及(ji)對(dui)應的鍵盤操(cao)作(zuo),鼠標(biao)點(dian)擊(ji)、懸浮(fu)、劃入劃出等(deng);移動終端界(jie)面(mian)交(jiao)(jiao)互(hu)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)以(yi)及(ji)對(dui)應的手(shou)指(zhi)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)如點(dian)擊(ji)、縮放、滑動等(deng);VR終端界(jie)面(mian)人機(ji)(ji)(ji)交(jiao)(jiao)互(hu)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)及(ji)對(dui)應的雙手(shou)操(cao)作(zuo)拾取、丟棄、控制,VR空(kong)間行(xing)(xing)(xing)(xing)(xing)走軌(gui)跡(ji))、以(yi)及(ji)多類型時(shi)空(kong)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)采集(包(bao)(bao)括室(shi)內、戶外、以(yi)及(ji)VR環(huan)境(jing)不同時(shi)空(kong)的行(xing)(xing)(xing)(xing)(xing)走軌(gui)跡(ji)、行(xing)(xing)(xing)(xing)(xing)車(che)軌(gui)跡(ji)、訪問狀態以(yi)及(ji)視線(xian)交(jiao)(jiao)互(hu)、情(qing)感反應、交(jiao)(jiao)互(hu)操(cao)作(zuo)行(xing)(xing)(xing)(xing)(xing)為(wei)(wei)等(deng)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)采集)、以(yi)及(ji)環(huan)境(jing)數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)(溫度、濕度、噪音(yin)、光照、大氣壓、濕度、粉(fen)塵等(deng))等(deng)客觀(guan)量(liang)化數(shu)(shu)(shu)(shu)據(ju)(ju)(ju)(ju)。

ErgoLAB人(ren)機環(huan)境(jing)同步云(yun)平臺包含強大的數(shu)據(ju)(ju)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)模塊以(yi)及(ji)(ji)(ji)廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(ying),行為(wei)決(jue)策(ce),以(yi)及(ji)(ji)(ji)警覺、壓力等)。ErgoLAB數(shu)據(ju)(ju)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)與(yu)綜合(he)統計分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)模塊包含多維度人(ren)-機-環(huan)境(jing)數(shu)據(ju)(ju)綜合(he)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、EEG腦電分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)與(yu)可(ke)視(shi)化、眼動分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)與(yu)可(ke)視(shi)化、行為(wei)觀察分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、面(mian)部表情分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、動作(zuo)姿態(tai)傷害評(ping)估(gu)與(yu)工效學分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、交互行為(wei)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、時空行為(wei)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、車輛(liang)與(yu)駕駛(shi)行為(wei)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)(ErgoAI駕駛(shi)版(ban)本)、HRV心率變異性分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、EDA/GSR皮(pi)電分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、RESP呼(hu)吸分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、EMG肌(ji)電分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、General通(tong)用(yong)信(xin)號分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)(如SKT皮(pi)溫(wen)分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)、EOG眼電分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)以(yi)及(ji)(ji)(ji)其(qi)他環(huan)境(jing)與(yu)生物力學信(xin)號分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi))。系統具備專(zhuan)門的信(xin)號處理(li)模塊以(yi)及(ji)(ji)(ji)開放式信(xin)號處理(li)接口,可(ke)以(yi)直接導出可(ke)視(shi)化分(fen)(fen)(fen)(fen)(fen)(fen)(fen)析(xi)報(bao)告以(yi)及(ji)(ji)(ji)原始數(shu)據(ju)(ju),支持(chi)第三方處理(li)與(yu)開發。
津發科技提供定制開發服務,與人因工程與工效學分析評價領域相關的算法模型、軟硬件產品與技術可深入研發,詳情咨詢津發科技!

ErgoLAB人(ren)(ren)機環境(jing)(jing)同步云平臺,是集(ji)科學化、集(ji)成化、智(zhi)能化于一體的系(xi)統工(gong)程工(gong)具與(yu)(yu)解決方案產(chan)品(pin),可(ke)以與(yu)(yu)多種類(lei)人(ren)(ren)、機器、環境(jing)(jing)數據進(jin)行(xing)同步采集(ji)與(yu)(yu)綜合(he)分析,尤其是人(ren)(ren)工(gong)智(zhi)能時代根據人(ren)(ren)-信(xin)息(xi)-物理系(xi)統(HCPS)理論(lun),對人(ren)(ren)-機-環境(jing)(jing)系(xi)統從人(ren)(ren)-信(xin)息(xi)系(xi)統,人(ren)(ren)-物理系(xi)統以及系(xi)統整體分別(bie)進(jin)行(xing)人(ren)(ren)機交互(hu)評估以及人(ren)(ren)因(yin)與(yu)(yu)工(gong)效(xiao)學的智(zhi)能評價。
智能云(yun)平臺系統支持項目(mu)的(de)(de)整個工(gong)作流程,從基(ji)于云(yun)端的(de)(de)項目(mu)管理(li)、試驗(yan)設計(ji)(試驗(yan)方(fang)法設置)、數(shu)(shu)據(ju)同(tong)步(bu)采集、信號處理(li)與數(shu)(shu)據(ju)分析到綜合統計(ji)與輸出可(ke)視化報告(gao),以及云(yun)端的(de)(de)大數(shu)(shu)據(ju)采集與AI狀(zhuang)態識別。具備ErgoVR虛擬現實解(jie)決方(fang)案實時同(tong)步(bu)模塊(kuai)、ErgoAI智能駕(jia)駛模擬解(jie)決方(fang)案實時同(tong)步(bu)模塊(kuai)、ErgoSIM環境(jing)模擬解(jie)決方(fang)案實時同(tong)步(bu)模塊(kuai),可(ke)以在不同(tong)的(de)(de)實驗(yan)環境(jing)為人-機-環境(jing)研(yan)究的(de)(de)發(fa)展提供進一步(bu)的(de)(de)主客觀數(shu)(shu)據(ju)支撐與科學指導。
其中,云試驗(yan)(yan)設(she)計產品模塊(kuai),可以進行靈活的(de)試驗(yan)(yan)設(she)計,支(zhi)持(chi)任何(he)類型(xing)的(de)刺(ci)(ci)激材料(liao),包(bao)括自定(ding)義問卷、量(liang)表與(yu)實(shi)(shi)驗(yan)(yan)范式(系統打包(bao)大量(liang)常用量(liang)表與(yu)實(shi)(shi)驗(yan)(yan)范式以及(ji)(ji)數(shu)據常模,如(ru)NASA-TLX認知負荷量(liang)表、PANAS情緒效價量(liang)表、Stroop任務(wu)、MOT多目(mu)標(biao)追(zhui)蹤、注意力(li)訓練任務(wu)等(deng))、聲(sheng)光(guang)電刺(ci)(ci)激與(yu)實(shi)(shi)時(shi)API/TTL事(shi)件(jian)標(biao)記、多媒體刺(ci)(ci)激編輯如(ru)文本、聲(sheng)音、圖像(xiang)(xiang),視頻,在線網(wang)站和手機(ji)應用程序(xu),以及(ji)(ji)所有的(de)原型(xing)設(she)計材料(liao),也支(zhi)持(chi)與(yu)如(ru)下刺(ci)(ci)激實(shi)(shi)時(shi)同步采集:場(chang)景攝像(xiang)(xiang)機(ji)、軟(ruan)件(jian),游戲,VR,AR程序(xu)等(deng)。兼容第三方(fang)軟(ruan)件(jian)刺(ci)(ci)激,如(ru)Eprime,Tobii Pro Lab等(deng)。
ErgoLAB人機(ji)(ji)環境同步(bu)云(yun)平臺采用主客觀(guan)結合多(duo)維度(du)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)驗證的(de)方法,可用于云(yun)項(xiang)目管理、云(yun)實(shi)驗設計(ji)、同步(bu)采集、綜(zong)合統(tong)計(ji)分析與(yu)可視(shi)化等全流程科(ke)研應(ying)用,數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)同步(bu)種(zhong)類(lei)包(bao)含大(da)腦認知數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)(EEG腦機(ji)(ji)交(jiao)互(hu)(hu)(hu)與(yu)腦電測量(liang)(liang)系(xi)統(tong)、fNIRS高密度(du)近紅外(wai)腦功(gong)能成像系(xi)統(tong)),視(shi)覺數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)(Eyetracking視(shi)線交(jiao)互(hu)(hu)(hu)與(yu)眼動追蹤系(xi)統(tong)),生(sheng)理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行(xing)(xing)為(wei)觀(guan)察、肢體(ti)動作與(yu)面部表情(qing)(qing)(基本情(qing)(qing)緒(xu)、情(qing)(qing)緒(xu)效價、微表情(qing)(qing)等)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)、生(sheng)物力學(xue)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)(拉力、握力、捏力、壓(ya)力),人機(ji)(ji)交(jiao)互(hu)(hu)(hu)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)(包(bao)含如(ru)網頁(ye)終(zhong)端(duan)界面交(jiao)互(hu)(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)以及對(dui)應(ying)的(de)鍵(jian)盤操作,鼠標點擊、懸浮、劃入劃出等;移(yi)動終(zhong)端(duan)界面交(jiao)互(hu)(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)以及對(dui)應(ying)的(de)手指行(xing)(xing)為(wei)如(ru)點擊、縮放、滑動等;VR終(zhong)端(duan)界面人機(ji)(ji)交(jiao)互(hu)(hu)(hu)行(xing)(xing)為(wei)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)及對(dui)應(ying)的(de)雙(shuang)手操作拾取、丟(diu)棄、控制,VR空(kong)間行(xing)(xing)走軌跡(ji))、以及多(duo)類(lei)型時(shi)空(kong)數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)采集(包(bao)括室(shi)內、戶外(wai)、以及VR環境不(bu)同時(shi)空(kong)的(de)行(xing)(xing)走軌跡(ji)、訪(fang)問狀態以及視(shi)線交(jiao)互(hu)(hu)(hu)、情(qing)(qing)感反應(ying)、交(jiao)互(hu)(hu)(hu)操作行(xing)(xing)為(wei)等數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)采集)、以及環境數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)(溫度(du)、濕度(du)、噪(zao)音、光照、大(da)氣壓(ya)、濕度(du)、粉塵等)等客觀(guan)量(liang)(liang)化數(shu)(shu)據(ju)(ju)(ju)(ju)(ju)。
ErgoLAB人(ren)機環境(jing)同步云平臺包含強大的數(shu)據(ju)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)模塊以(yi)(yi)及(ji)廣泛(fan)的認知(zhi)和情(qing)感生(sheng)(sheng)物(wu)特征識別(如記憶,注意力,情(qing)緒(xu)反應,行為(wei)(wei)決策,以(yi)(yi)及(ji)警(jing)覺、壓力等)。ErgoLAB數(shu)據(ju)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)與(yu)(yu)綜(zong)合(he)(he)統(tong)計分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)模塊包含多維度人(ren)-機-環境(jing)數(shu)據(ju)綜(zong)合(he)(he)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、EEG腦(nao)電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)與(yu)(yu)可(ke)視(shi)化(hua)、眼動(dong)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)與(yu)(yu)可(ke)視(shi)化(hua)、行為(wei)(wei)觀察(cha)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、面部(bu)表情(qing)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、動(dong)作姿態傷害評估與(yu)(yu)工(gong)效學分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、交(jiao)互行為(wei)(wei)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、時空行為(wei)(wei)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、車輛與(yu)(yu)駕駛行為(wei)(wei)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)(ErgoAI駕駛版本)、HRV心率變(bian)異(yi)性分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、EDA/GSR皮電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、RESP呼吸分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、EMG肌電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、General通(tong)用信(xin)(xin)號分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)(如SKT皮溫分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)、EOG眼電(dian)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)以(yi)(yi)及(ji)其他環境(jing)與(yu)(yu)生(sheng)(sheng)物(wu)力學信(xin)(xin)號分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi))。系統(tong)具備專門的信(xin)(xin)號處(chu)理(li)模塊以(yi)(yi)及(ji)開放式信(xin)(xin)號處(chu)理(li)接口(kou),可(ke)以(yi)(yi)直接導出可(ke)視(shi)化(hua)分(fen)(fen)(fen)(fen)(fen)析(xi)(xi)(xi)(xi)(xi)(xi)(xi)報(bao)告以(yi)(yi)及(ji)原始數(shu)據(ju),支持第三方(fang)處(chu)理(li)與(yu)(yu)開發(fa)。
通過ErgoLAB人機環(huan)境(jing)同(tong)步(bu)(bu)云平臺可以與(yu)更(geng)多種(zhong)類的數據進(jin)行同(tong)步(bu)(bu),可用(yong)于云項(xiang)目管(guan)理(li)、云實(shi)(shi)驗設(she)(she)計、同(tong)步(bu)(bu)采(cai)集、綜合統計分析(xi)與(yu)可視(shi)化等全流程科研應(ying)用(yong),實(shi)(shi)驗設(she)(she)計云平臺模塊可以進(jin)行自定(ding)義問卷設(she)(she)計、聲(sheng)光電刺激(ji)(ji)與(yu)實(shi)(shi)時事(shi)件標(biao)記、多媒體刺激(ji)(ji)編(bian)輯如(ru)文本、聲(sheng)音、圖像,視(shi)頻,實(shi)(shi)時網站(zhan)和手機應(ying)用(yong)程序的原型(xing)設(she)(she)計文件,也支持與(yu)如(ru)下刺激(ji)(ji)實(shi)(shi)時同(tong)步(bu)(bu)采(cai)集:場景(jing)攝像機、軟(ruan)件,游戲(xi),VR,AR程序等;并且具備ErgoVR虛(xu)擬現實(shi)解決方案實(shi)時(shi)同步模(mo)塊、ErgoAI智能駕駛模擬解決方案實(shi)時同步(bu)模塊、ErgoSIM環(huan)境模擬解決方案實時同(tong)步模塊,可以(yi)在不同(tong)的實驗環(huan)境為(wei)人-機-環境(jing)研(yan)究的發展(zhan)提供(gong)了(le)進一步的主客觀數(shu)據(ju)支撐。
ErgoLAB人機環境測試云(yun)平(ping)臺將(jiang)主觀問(wen)卷與客觀數(shu)據(ju)集(ji)(ji)成(cheng),可(ke)用于云(yun)項目管理、云(yun)實驗設計(ji)(ji)、同(tong)步(bu)(bu)采(cai)集(ji)(ji)、綜合統計(ji)(ji)分析與可(ke)視化等全流程科研(yan)應用,數(shu)據(ju)同(tong)步(bu)(bu)種類包含大(da)腦認知(zhi)數(shu)據(ju)(EEG腦(nao)機交互(hu)與腦(nao)電測量系(xi)統(tong)、fNIRS高(gao)密(mi)度近(jin)紅外(wai)腦(nao)功(gong)能成像(xiang)系統),視覺(jue)數據(Eyetracking視線(xian)交互與眼動追蹤系統(tong)),生(sheng)理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2,行(xing)為(wei)(wei)觀察、肢(zhi)體動作(zuo)與面(mian)部表情、生物力(li)學(拉力(li)、握力(li)、捏力(li)、壓力(li)),人(ren)機交互(hu)數(shu)據(包含如網(wang)頁終(zhong)端(duan)界面(mian)交互(hu)行(xing)為(wei)(wei)數(shu)據以及對(dui)應的鍵盤(pan)操作(zuo),鼠標點擊、懸浮、劃入劃出等;移(yi)動終(zhong)端(duan)界面(mian)交互(hu)行(xing)為(wei)(wei)數(shu)據以及對(dui)應的手指(zhi)行(xing)為(wei)(wei)如點擊、縮(suo)放、滑動等;VR終端(duan)界面人機(ji)交互(hu)行為數據及對應的雙手操作(zuo)拾取(qu)、丟棄、控制(zhi),VR空間行走軌跡)等客(ke)觀量(liang)化(hua)數據。
ErgoLAB綜合(he)統計分析(xi)功能(neng)包含人機環(huan)境數(shu)據綜合(he)分析(xi)、EEG腦(nao)電分(fen)(fen)(fen)析(xi)(xi)與(yu)可視(shi)化(hua)、眼動分(fen)(fen)(fen)析(xi)(xi)與(yu)可視(shi)化(hua)、行(xing)為觀察分(fen)(fen)(fen)析(xi)(xi)、面部(bu)表情(qing)分(fen)(fen)(fen)析(xi)(xi)、動作(zuo)姿態傷害評估與(yu)工(gong)效學分(fen)(fen)(fen)析(xi)(xi)、交(jiao)互(hu)行(xing)為分(fen)(fen)(fen)析(xi)(xi)、時空(kong)行(xing)為分(fen)(fen)(fen)析(xi)(xi)、車輛分(fen)(fen)(fen)析(xi)(xi)(ErgoAI駕(jia)駛版本)、HRV心率(lv)變異(yi)性分(fen)析(xi)、EDA皮電分析、RESP呼吸分析、EMG肌(ji)電分析、General通用信(xin)號分析。津發科技(ji)提供定制開發服務,與人因工(gong)程與工(gong)效學分析評價領域相關的算法模(mo)型(xing)、軟硬件(jian)產(chan)品與技(ji)術可深入(ru)研發,詳(xiang)情咨詢(xun)津發科技(ji)!
SennsLab是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設計和數據收集。它支持項(xiang)目(mu)的整(zheng)(zheng)個工作流(liu)程,從(cong)實(shi)驗方法設(she)置到數據收(shou)集和導出以進行(xing)完整(zheng)(zheng)的分析。
毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務, VR體驗,網站...)具有出色的時間表現。因此,您將(jiang)能夠輕(qing)松,準確(que)地分析來自Excel,SPSS,MatLab等的數(shu)據。
SennsMetrics是(shi)SennsLab軟件的(de)(de)(de)擴(kuo)展,可提供十分(fen)常用(yong)的(de)(de)(de)研究(jiu)設(she)計模板,強大的(de)(de)(de)數據分(fen)析平(ping)臺以及廣(guang)泛(fan)的(de)(de)(de)認知和情(qing)感生物特征識別(bie)(例如記憶,注意力,情(qing)感價,激活(huo)和影響,參與度等) )。SennsMetrics是(shi)為那些希望(wang)在(zai)生理數據解(jie)碼和分(fen)析方面向前邁進的(de)(de)(de)人(ren)而特別(bie)設(she)計的(de)(de)(de),它提供了一種實用(yong)且可行的(de)(de)(de)解(jie)決方案(an)。
干(gan)腦(nao)電(dian)圖(tu) 半干(gan)腦(nao)電(dian)圖(tu) 生物信號 室內定(ding)位(wei)系統 眼動追(zhui)蹤




![]()
其他

任何類型的刺激
圖像(xiang),視頻,體驗,網站,應用程序,VR / AR設置...
第三方軟件刺激
Eprime,Tobii Pro Lab ...
兼容LabStreamLayer
BCI200,OpenVie,NeuroPype ...
實時API
數據分析
原始數據到第三方
Matlab(EEGLAB,BCILAB等)
Python(MNE等)
Neuroguide WE
其他
SennsMetrics 可選
Bitbrain軟件分析工(gong)具
情緒和認知指標
Excel導出(單(dan)個和匯總)
多媒體資料
技術指標
| 人類行為指標 | |
| 情緒生物識別 | 價,情緒激活,情緒影響 |
| 認知生物識別 | 注意,記憶,參與。 |
| 行為指標 | 鼠標跟蹤,時間。 |
| 眼動追蹤指標 | 視覺注意,注視 |
| 內隱動機和行為 | 隱式聯想響應測試(IAT和啟動) |
| IPS指標 | 位置追蹤 |
| 指標表示 | |
| 個人 | 對于生物識別,時間和隱式關聯:條形圖和統計差異表。對于眼睛跟蹤,鼠標定位和室內定位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。 |
| 組合式 | 情感定位圖,結合指標的視頻,刺激,攝像頭和麥克風(匯總,按細分或個人匯總)。 |
| 輸出格式 | |
| 檔案 | 所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容 |
| 可視化軟件 | Bitbrain生物識別可視化軟件。分析間隔和感興趣的區域。 |
| 多媒體資料 | 包含陳述和視頻以進行報告。 |
人(ren)機工程、人(ren)的失(shi)誤(wu)與(yu)系統安全(quan)、人(ren)機工效學、工作場所與(yu)工效學負荷等
從安全的角度和著(zhu)眼點,運(yun)用人機工程(cheng)學的原理(li)和方法去解決人機結合面(mian)安全問題
人-車-路(lu)-環境系統的整體研(yan)究,有(you)助于改(gai)善駕(jia)(jia)駛系統設(she)計、提高駕(jia)(jia)駛安全性、改(gai)善道路(lu)環境等
ErgoLAB可實現桌面端、移動(dong)端以及VR虛擬環境中的(de)眼動(dong)、生理、行為等數據的(de)采集(ji),探索產品設(she)計(ji)、人機(ji)交互對用戶(hu)體(ti)驗的(de)影(ying)響
研究(jiu)如何(he)通過城市規劃與建筑設計(ji)來(lai)滿足(zu)人的(de)行為心理(li)需求,以創造良好(hao)環境,提高工作效率
通過ErgoLAB采集和分析消(xiao)費者的(de)(de)生理、表情、行(xing)為(wei)等數據,了解消(xiao)費者的(de)(de)認知加工與決策(ce)行(xing)為(wei),找到(dao)消(xiao)費者行(xing)為(wei)動機,從而(er)產生恰當的(de)(de)營銷(xiao)策(ce)略使消(xiao)費者產生留言意向及留言行(xing)為(wei)