一国产区在线观看,丁香综合网,欧美激情五月,99国产超薄丝袜足j在线观看,国产精品偷伦视频免费手机播放,色诱久久av,国产亚洲亚洲精品777,中文字幕福利视频
      當前位置:主頁 > 產(chǎn)品展示 > > ErgoLAB人機環(huán)境同步 > ErgoLAB人機環(huán)境同步云平臺

      ErgoLAB人機環(huán)境同步云平臺

      型號:ErgoLAB

      產(chǎn)品時間:2021-10-18

      簡要描述:

      ErgoLAB人機環(huán)境同步云平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。

      詳細介紹

      ErgoLAB人機環(huán)境同步云平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人--環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。

      智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人--環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐與科學指導。

      其中,云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標追蹤、注意力訓練任務(wù)等)、聲光電刺激與實時API行為編碼/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VRAR程序等。兼容第三方軟件刺激編譯軟件,如E-primeSuperlabTobiiPro Lab等。

      ErgoLAB人機環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDAEMGECGEOGHRVRESPTEMP/SKTPPGSpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。

      ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人--環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。

      津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!

       

      ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計和數(shù)據(jù)收集。它支持項目的整個工作流程,從實驗方法設(shè)置到數(shù)據(jù)收集和導出以進行完整的分析。

      毫秒級同步,您將能夠從各種傳感器模式(GSRECGEEGEMGEEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗,

      ...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準確地分析來自ExcelSPSSMatLab等的數(shù)據(jù)。

      系統(tǒng)可提供研究設(shè)計模板,強大的數(shù)據(jù)分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進的人而特別設(shè)計的,它提供了一種實用且可行的解決方案。

      同步數(shù)據(jù)采集

       

       

      刺激性

      任何類型的刺激
      圖像,視頻,體驗,,應(yīng)用程序,VR / AR設(shè)置...

      第三方軟件刺激
      ErgoLABEprimeTobii Pro Lab ...

      實時應(yīng)用

      兼容LabStreamLayer
      BCI200
      OpenVieNeuroPype ...

      實時API

      數(shù)據(jù)分析

      原始數(shù)據(jù)到第三方

      MatlabEEGLABBCILAB等)

      PythonMNE等)

      Neuroguide WE

      其他

       

      高級分析工具(可選(

      軟件分析工具

      情緒和認知指標

      Excel導出(單個和匯總)

      多媒體資料

       

      技術(shù)指標

      人類行為指標

      情緒生物識別

      價,情緒激活,情緒影響

      認知生物識別

      注意,記憶,參與。

      行為指標

      鼠標跟蹤,時間。

      眼動追蹤指標

      視覺注意,注視

      內(nèi)隱動機和行為

      隱式聯(lián)想響應(yīng)測試(IAT和啟動)

      IPS指標

      位置追蹤

       

      指標表示

      個人

      對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計差異表。對于眼睛跟蹤,鼠標定位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。

      組合式

      情感定位圖,結(jié)合指標的視頻,刺激,攝像頭和麥克風(匯總,按細分或個人匯總)。

       

      輸出格式

      檔案

      所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(MatlabExcell等)兼容

      可視化軟件

      生物識別可視化軟件。分析間隔和感興趣的區(qū)域。

      多媒體資料

      包含陳述和視頻以進行報告。

      ErgoLAB人機環(huán)境同步云平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。

      智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐 與科學指導。

      其中,云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務(wù)、MOT多目標追蹤、注意力訓練任務(wù)等)、聲光電刺激與實時API行為編碼/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。

      ErgoLAB人機環(huán)境同步云平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應(yīng)的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。

      ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應(yīng),行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。

      津發(fā)科技提供定制開發(fā)服務(wù),與人因工程與工效學分析評價領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢津發(fā)科技!

      ErgoLAB是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設(shè)計和數(shù)據(jù)收集。它支持項目的整個工作流程,從實驗方法設(shè)置到數(shù)據(jù)收集和導出以進行完整的分析。

      毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗,...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。

      系統(tǒng)可提供的研究設(shè)計模板,強大的數(shù)據(jù)分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進的人而特別設(shè)計的,它提供了一種實用且可行的解決方案。

      同步數(shù)據(jù)采集

       

       

      刺激性

      任何類型的刺激
      圖像,視頻,體驗,應(yīng)用程序,VR / AR設(shè)置...

      第三方軟件刺激
      ErgoLAB,Eprime,Tobii Pro Lab ...

      實時應(yīng)用

      兼容LabStreamLayer
      BCI200,OpenVie,NeuroPype ...

      實時API

      數(shù)據(jù)分析

      原始數(shù)據(jù)到第三方

      Matlab(EEGLAB,BCILAB等)

      Python(MNE等)

      Neuroguide WE

      其他

       

      高級分析工具(可選(

      軟件分析工具

      情緒和認知指標

      Excel導出(單個和匯總)

      多媒體資料

       

      技術(shù)指標

      人類行為指標

      情緒生物識別

      價,情緒激活,情緒影響

      認知生物識別

      注意,記憶,參與。

      行為指標

      鼠標跟蹤,時間。

      眼動追蹤指標

      視覺注意,注視

      內(nèi)隱動機和行為

      隱式聯(lián)想響應(yīng)測試(IAT和啟動)

      IPS指標

      位置追蹤

       

      指標表示

      個人

      對于生物識別,時間和隱式關(guān)聯(lián):條形圖和統(tǒng)計差異表。對于眼睛跟蹤,鼠標定位和室位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。

      組合式

      情感定位圖,結(jié)合指標的視頻,刺激,攝像頭和麥克風(匯總,按細分或個人匯總)。

       

      輸出格式

      檔案

      所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容

      可視化軟件

      生物識別可視化軟件。分析間隔和感興趣的區(qū)域。

      多媒體資料

      包含陳述和視頻以進行報告。

       

      產(chǎn)品咨詢

      留言框

      • 產(chǎn)品:

      • 您的單位:

      • 您的姓名:

      • 聯(lián)系電話:

      • 常用郵箱:

      • 省份:

      • 詳細地址:

      • 補充說明:

      • 驗證碼:

        請輸入計算結(jié)果(填寫阿拉伯數(shù)字),如:三加四=7

      人因工程與工效學

      人機工程、人的失誤與系統(tǒng)安全、人機工效學、工作場所與工效學負荷等

      安全人機工程

      從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結(jié)合面安全問題

      交通安全與駕駛行為

      人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計、提高駕駛安全性、改善道路環(huán)境等

      用戶體驗與交互設(shè)計

      ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計、人機交互對用戶體驗的影響

      建筑與環(huán)境行為

      研究如何通過城市規(guī)劃與建筑設(shè)計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

      消費行為與神經(jīng)營銷

      通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為

      掃一掃,加微信

      版權(quán)所有 © 2025北京津發(fā)科技股份有限公司(www.okfshwx.cn)
      備案號:京ICP備14045309號-4 技術(shù)支持:智慧城市網(wǎng) 管理登陸 GoogleSitemap

      主站蜘蛛池模板: 成人欧美一区二区三区黑人免费| 日韩欧美精品有码在线观看| 日韩av一区二区三区四区av| 亚洲无码夜夜操| 亚洲熟少妇一区二区三区 | 欧美一级日韩一级亚洲一级| 337p日本大胆欧久久| 国产一区二区三区视频免费| 章丘市| 亚洲欧美国产日产综合不卡| 五月天天天综合精品无码 | 日韩a级毛片| 久久露脸国产精品WWW| 亚洲av男人的在线的天堂| 国产婷婷丁香五月麻豆 | 国产精品无码素人福利不卡| 亚洲经典av一区二区| 超碰性爱| 欧美国产日本精品一区二区三区| 国产精品系列亚洲第一| 91亚洲一线产区二线产区| 国产一区国产二区在线视频| 亚洲男人天堂av在线| 在线亚洲+欧美+日本专区| 亚洲传媒av一区二区三区 | 国产午夜精品久久久久九九| 人妻精品一区二区三区视频 | 最新永久免费AV网站| 亚洲第一色在线| 亚洲国产成人精品毛片九色| 久久国产精品久久国产精品| 日本一区二区三区在线观看免费| 人妻忍着娇喘被中进中出视频| 亚洲综合久久久中文字幕| 亚洲韩欧美第25集完整版| 锦屏县| 欧美洲精品亚洲精品中文字幕| 国产综合亚洲欧美日韩在线 | 午夜精品一区二区三区无码不卡| 少妇高潮大叫好爽喷水| 精品国产一区二区三区亚洲人|