复杂系统人机融合创新设计实验系统(XF-WSBX-2200697)废标公告

内容
 
发送至邮箱

复杂系统人机融合创新设计实验系统(XF-WSBX-2200697)废标公告

项目名称复杂系统人机融合创新设计实验系统项目编号XF-WSBX-*
公告开始日期*公告截止日期*
采购单位浙江大学付款方式货到付款,*方需向*方开具增值税发票,*方在到货验收及收到发票后,15日内*方一次性支付合同总额
联系人中标后在我参与的项目中查看联系电话中标后在我参与的项目中查看
签约时间要求成交后5天到货时间要求成交后15天
预 算*.0
收货地址 (略) 西湖区余杭塘路866号浙江大学紫金港校区月牙楼403
供应商资质要求

符合《政府采购法》第二十二条规定的供应商基本条件

采购商品采购数量计量单位所属分类
复杂系统人机融合创新设计实验系统1其他特种设备
品牌
型号
品牌2
型号
品牌3
型号
预算*.0
技术参数及配置要求支付方式变更为:合同签订后,采购方(我方)支付首付款,首付款为合同总价款的10%。余款在设备验收通过及收到供应商(对方)开具的合同总价款增值税发票后支付,余款为合同总价款的90%。期望合同签订时间:5日内。期望收货时间:合同签订后15日内。VR视线交互模块★1.系统通过人机环境同步平台支持两人以上在同一个三维场景进行实验;(提供软件界面截图材料)2.采样频率: ≥双眼120 Hz;3.追踪模式:暗瞳孔追踪;4.准确度:≤0.5度;5.红外光源数量:≥每只眼睛10个;6.追踪方式:双眼追踪;7.测量方式:支持瞳孔测量;8.眼动追踪范围:≥110度;9.眼动追踪传感器:≥1个;★10.软件集成:WorldViz、Unity3D、ErgoLAB;11.第三方API数据同步接口:支持二次开发;★12.数据传速率:≥500Kbps;13.通用输入接口事件标记分辨率:≥8bit;14.通用输出接口事件标记分辨率:≥8bit;15.VR实验设计平台:15.1高级版:系统配备专门的虚拟现实设计与应用程序:15.1.1直接与人机环境同步平台进行数据通讯,读取三维模型或三维场景的源文件,自动识别场景元素作为三维AOI物体,统计人机交互数据,如*取、注视;★15.1.2支持使用U3D、UE4等VR开发平台开发的产品原型,进行实时数据通讯,采集三维人机交互数据;实验前基于三维模型或三维场景自动识别并指定三维元素作为AOI物体;实验过程中可以实时浏览个体在三维场景下的时空交互行为,并自动编码;(提供软件界面截图材料)15.2支持多媒体刺激材料,格式包括.bmp /.jpg /.png /.jpeg/.avi / .mp4 / .mkv/.mp2 / .mp3 / .wav等;15.3支持设置图片、视频刺激属性为 360°、2D呈现形式;★15.4提供三维AOI物体编辑功能:实验过程中实时浏览个体在三维场景下的人机交互行为,并自动编码;★15.5提供三维SOI时空编辑功能:实验前基于三维模型或三维场景自定义指定区域作为SOI空间;16.分析功能:★16.1眼动可视化分析,含热点图、轨迹图、3D图、蜂窝图、彩虹图、透视图等,支持png格式导出,可自定义Radius、Style、Opacity显示参数;16.2眼动AOI序列分析功能:16.2.1 AOI序列轨迹相似度计算功能,支持多被试基于整体片段相似度计算、序列相似度计算,计算最大轨迹相似度;16.2.2 序列维度设置含Sequence维度与Time维度,≤99维;16.2.3 支持多被试的AOI序列可视化,提供相对时间与绝对时间结果;★16.2.4支持多被试AOI序列数据统计,含首次注视时长、平均注视时长、总注视时长百分比和注视次数百分比等;16.3SOI区域轨迹可视化序列分析功能:16.3.1 支持自定义基于单SOI或SOI Group的序列设置;16.3.2 支持单被试与多被试先后进入不同SOI序列相关性的可视化分析,提供相对时间与绝对时间序列结果呈现;★16.3.3 SOI序列分析统计指标包括:兴趣区总访问时长、兴趣区总访问时长占比、兴趣区总访问次数、兴趣区平均访问时长;16.4可视化时空热图(Heat Map):16.4.1 可视化个体与时空地图交互位置、时长及交互的重点SOI区域;16.5数据统计提供AOI统计及Gaze眼动点数据指标统计,提供反映注意特征的数据 ≥25种。详细的包括Gaze平均瞳孔直径、最小瞳孔直径、最大瞳孔直径、注视点间平均水平距离、注视点间平均垂直距离、注视点间绝对距离、眨眼次数、平均眨眼次数、眼跳次数、平均眼跳次数、总眼跳时间;AOI首次注视时间、AOI首次注视次数、AOI首次注视序列编号、AOI首次注视持续时间、AOI访问次数、AOI总访问时间、AOI总访问时间的百分比、AOI平均访问时间、AOI注视次数、AOI注视次数的百分比、AOI注视总时间、AOI总注视时间的百分比、AOI平均注视时间、AOI第二次注视时间、AOI注视点的最近距离等;★17.投标产品软件需提供中英文双语版本。可穿戴人体动作捕捉系统1. 惯性运动捕捉系统硬件:★1.1传感器数量:≥17个1.2测量范围(每轴):加速度:≥±160m/s2、角加速度:≥±2000°/S、磁力计:≥±1.9gauss1.3精度:、静态精度Pitch,Roll:≤0.5°、头部静态精度:≤1°、动态精度:≤0.75°、头部动态精度:≤1.5°1.4采样率:★1.4.1内部采样率:≥1000Hz1.4.2系统采样率:≥60-120Hz1.5支持人体位置追踪及三维空间位移计算,空间位置数据采集1.6运动数据采集:可录制跳跃或快速奔跑的动作数据,系统延迟:≤30ms2. 数据采集分析:2.1软件界面直观、易用2.2采用不少于23个生物力学模型,分为22个关节2.3每个关节都通过6自由度关节松弛数据进行指定。采用先进的脊椎和肩膀模型,可计算出脊柱和肩胛骨的运动数据2.4 有成熟算法,消除磁场干扰,用于金属环境和电磁环境2.5采用T、N型两种静态标定姿态,整个标定时间小于3分钟★2.6可与多种软件整合并实时通讯,包括:Siemens PLM Software, Dass&ault,Delmia & Catia, Unity3D, Autodesk2.7系统有精确位置追踪性能,误差小于1%★2.8一套软件最多支持四人进行实时动作捕.支持4套硬件同步操作,方便实验人员后续拓展 2.9可输出数据:关节角度、刚体运动学数据、刚体坐标、身体重心位置、传感器原始数据 2.10内部数据同步时间差< 10μs,保证精确的关节角度计算2.11数据导出格式:ASCII (XML)、C3D、BVH、 FBX、Movie (AVI, M4V)★2.12需提供ErgoLAB软件插件,使数据可以在ErgoLAB软件中同步采集同步分析★2.13厂家或者代理商必须提供针对本项目的授权,如果 (略) , (略) 提供针对本项目授权和售后服务承诺函。VR人机交互行为分析系统一、行为观察分析系统1、★行为编码方式:提供多种行为编码方式,提供ErgoLAB API/TTL实时行为编码模式、鼠标点击进行离线编码模式、键盘快捷键方式进行离线编码模式2、自定义行为/行为组,可以进行编码快捷键设置、RGB调色设置(0-255),支持同时创建多个行为组3、支持单组行为的单独编码,多组行为的同步编码方式,以及行为编码基于时间轴的可视化呈现4、基础行为分析,支持对单个行为进行统计分析,统计指标包括行为发生次数、每分钟行为发生次数、总持续时间、最小持续时间、最大持续时间、平均持续时间等,支持生成柱状统计图、序列图5、行为交叉分析,支持对多行为组交互关系进行统计分析,统计指标包括多个行为组同时发生的平均持续时间、总持续时间、每个行为的发生频率、最小持续时间、最大持续时间,支持生成柱状统计图、序列图6、行为延迟分析,支持对多行为组延迟关系进行统计分析,统计指标包括一个行为在另一个行为前后发生的频率、发生的概率,支持生成柱状统计图、序列图7、★支持行为编码界面可以同步刺激场景、眼动数据、以及多路行为视频同时显示,辅助编码与结果分析。二、面部表情分析系统1、利用面部肌肉的特征点的位置来计算和分类面部表情。2、可以全自动识别和分类七种基本表情:高兴,悲伤, 生气, 惊讶, 害怕, 厌恶, 蔑视;3、另外还可以区分心理状态:积极,中性,消极。4、表情数据处理包括数据差值、信号降噪(滑动中值滤波、滑动均值滤波)5、表情归类方法包括阈值设置法、合并相邻行为、丢弃最短行为法,确保表情识别效度★6、表情编码模式支持:支持手动编码(Manual Coding)、自动编码(Auto Coding)、混合编码(Merge Coding)7、21种微表情识别 包括:抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧、眼轮匝肌内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴★8、情感效价模型计算,支持自动识别正性、负性、中性表情★9、表情自定义算法,含编码分析、表情交互分析、表情延迟分析,支持生成可视化统计图及统计表10、数据导出包括7种表情原始数据、头部位置参数、面部特征点数据,支持进行二次分析与开发★11、投标产品软件需提供中英文双语版本。
售后服务

信息来源:http://**
项目名称复杂系统人机融合创新设计实验系统项目编号XF-WSBX-*
公告开始日期*公告截止日期*
采购单位浙江大学付款方式货到付款,*方需向*方开具增值税发票,*方在到货验收及收到发票后,15日内*方一次性支付合同总额
联系人中标后在我参与的项目中查看联系电话中标后在我参与的项目中查看
签约时间要求成交后5天到货时间要求成交后15天
预 算*.0
收货地址 (略) 西湖区余杭塘路866号浙江大学紫金港校区月牙楼403
供应商资质要求

符合《政府采购法》第二十二条规定的供应商基本条件

采购商品采购数量计量单位所属分类
复杂系统人机融合创新设计实验系统1其他特种设备
品牌
型号
品牌2
型号
品牌3
型号
预算*.0
技术参数及配置要求支付方式变更为:合同签订后,采购方(我方)支付首付款,首付款为合同总价款的10%。余款在设备验收通过及收到供应商(对方)开具的合同总价款增值税发票后支付,余款为合同总价款的90%。期望合同签订时间:5日内。期望收货时间:合同签订后15日内。VR视线交互模块★1.系统通过人机环境同步平台支持两人以上在同一个三维场景进行实验;(提供软件界面截图材料)2.采样频率: ≥双眼120 Hz;3.追踪模式:暗瞳孔追踪;4.准确度:≤0.5度;5.红外光源数量:≥每只眼睛10个;6.追踪方式:双眼追踪;7.测量方式:支持瞳孔测量;8.眼动追踪范围:≥110度;9.眼动追踪传感器:≥1个;★10.软件集成:WorldViz、Unity3D、ErgoLAB;11.第三方API数据同步接口:支持二次开发;★12.数据传速率:≥500Kbps;13.通用输入接口事件标记分辨率:≥8bit;14.通用输出接口事件标记分辨率:≥8bit;15.VR实验设计平台:15.1高级版:系统配备专门的虚拟现实设计与应用程序:15.1.1直接与人机环境同步平台进行数据通讯,读取三维模型或三维场景的源文件,自动识别场景元素作为三维AOI物体,统计人机交互数据,如*取、注视;★15.1.2支持使用U3D、UE4等VR开发平台开发的产品原型,进行实时数据通讯,采集三维人机交互数据;实验前基于三维模型或三维场景自动识别并指定三维元素作为AOI物体;实验过程中可以实时浏览个体在三维场景下的时空交互行为,并自动编码;(提供软件界面截图材料)15.2支持多媒体刺激材料,格式包括.bmp /.jpg /.png /.jpeg/.avi / .mp4 / .mkv/.mp2 / .mp3 / .wav等;15.3支持设置图片、视频刺激属性为 360°、2D呈现形式;★15.4提供三维AOI物体编辑功能:实验过程中实时浏览个体在三维场景下的人机交互行为,并自动编码;★15.5提供三维SOI时空编辑功能:实验前基于三维模型或三维场景自定义指定区域作为SOI空间;16.分析功能:★16.1眼动可视化分析,含热点图、轨迹图、3D图、蜂窝图、彩虹图、透视图等,支持png格式导出,可自定义Radius、Style、Opacity显示参数;16.2眼动AOI序列分析功能:16.2.1 AOI序列轨迹相似度计算功能,支持多被试基于整体片段相似度计算、序列相似度计算,计算最大轨迹相似度;16.2.2 序列维度设置含Sequence维度与Time维度,≤99维;16.2.3 支持多被试的AOI序列可视化,提供相对时间与绝对时间结果;★16.2.4支持多被试AOI序列数据统计,含首次注视时长、平均注视时长、总注视时长百分比和注视次数百分比等;16.3SOI区域轨迹可视化序列分析功能:16.3.1 支持自定义基于单SOI或SOI Group的序列设置;16.3.2 支持单被试与多被试先后进入不同SOI序列相关性的可视化分析,提供相对时间与绝对时间序列结果呈现;★16.3.3 SOI序列分析统计指标包括:兴趣区总访问时长、兴趣区总访问时长占比、兴趣区总访问次数、兴趣区平均访问时长;16.4可视化时空热图(Heat Map):16.4.1 可视化个体与时空地图交互位置、时长及交互的重点SOI区域;16.5数据统计提供AOI统计及Gaze眼动点数据指标统计,提供反映注意特征的数据 ≥25种。详细的包括Gaze平均瞳孔直径、最小瞳孔直径、最大瞳孔直径、注视点间平均水平距离、注视点间平均垂直距离、注视点间绝对距离、眨眼次数、平均眨眼次数、眼跳次数、平均眼跳次数、总眼跳时间;AOI首次注视时间、AOI首次注视次数、AOI首次注视序列编号、AOI首次注视持续时间、AOI访问次数、AOI总访问时间、AOI总访问时间的百分比、AOI平均访问时间、AOI注视次数、AOI注视次数的百分比、AOI注视总时间、AOI总注视时间的百分比、AOI平均注视时间、AOI第二次注视时间、AOI注视点的最近距离等;★17.投标产品软件需提供中英文双语版本。可穿戴人体动作捕捉系统1. 惯性运动捕捉系统硬件:★1.1传感器数量:≥17个1.2测量范围(每轴):加速度:≥±160m/s2、角加速度:≥±2000°/S、磁力计:≥±1.9gauss1.3精度:、静态精度Pitch,Roll:≤0.5°、头部静态精度:≤1°、动态精度:≤0.75°、头部动态精度:≤1.5°1.4采样率:★1.4.1内部采样率:≥1000Hz1.4.2系统采样率:≥60-120Hz1.5支持人体位置追踪及三维空间位移计算,空间位置数据采集1.6运动数据采集:可录制跳跃或快速奔跑的动作数据,系统延迟:≤30ms2. 数据采集分析:2.1软件界面直观、易用2.2采用不少于23个生物力学模型,分为22个关节2.3每个关节都通过6自由度关节松弛数据进行指定。采用先进的脊椎和肩膀模型,可计算出脊柱和肩胛骨的运动数据2.4 有成熟算法,消除磁场干扰,用于金属环境和电磁环境2.5采用T、N型两种静态标定姿态,整个标定时间小于3分钟★2.6可与多种软件整合并实时通讯,包括:Siemens PLM Software, Dass&ault,Delmia & Catia, Unity3D, Autodesk2.7系统有精确位置追踪性能,误差小于1%★2.8一套软件最多支持四人进行实时动作捕.支持4套硬件同步操作,方便实验人员后续拓展 2.9可输出数据:关节角度、刚体运动学数据、刚体坐标、身体重心位置、传感器原始数据 2.10内部数据同步时间差< 10μs,保证精确的关节角度计算2.11数据导出格式:ASCII (XML)、C3D、BVH、 FBX、Movie (AVI, M4V)★2.12需提供ErgoLAB软件插件,使数据可以在ErgoLAB软件中同步采集同步分析★2.13厂家或者代理商必须提供针对本项目的授权,如果 (略) , (略) 提供针对本项目授权和售后服务承诺函。VR人机交互行为分析系统一、行为观察分析系统1、★行为编码方式:提供多种行为编码方式,提供ErgoLAB API/TTL实时行为编码模式、鼠标点击进行离线编码模式、键盘快捷键方式进行离线编码模式2、自定义行为/行为组,可以进行编码快捷键设置、RGB调色设置(0-255),支持同时创建多个行为组3、支持单组行为的单独编码,多组行为的同步编码方式,以及行为编码基于时间轴的可视化呈现4、基础行为分析,支持对单个行为进行统计分析,统计指标包括行为发生次数、每分钟行为发生次数、总持续时间、最小持续时间、最大持续时间、平均持续时间等,支持生成柱状统计图、序列图5、行为交叉分析,支持对多行为组交互关系进行统计分析,统计指标包括多个行为组同时发生的平均持续时间、总持续时间、每个行为的发生频率、最小持续时间、最大持续时间,支持生成柱状统计图、序列图6、行为延迟分析,支持对多行为组延迟关系进行统计分析,统计指标包括一个行为在另一个行为前后发生的频率、发生的概率,支持生成柱状统计图、序列图7、★支持行为编码界面可以同步刺激场景、眼动数据、以及多路行为视频同时显示,辅助编码与结果分析。二、面部表情分析系统1、利用面部肌肉的特征点的位置来计算和分类面部表情。2、可以全自动识别和分类七种基本表情:高兴,悲伤, 生气, 惊讶, 害怕, 厌恶, 蔑视;3、另外还可以区分心理状态:积极,中性,消极。4、表情数据处理包括数据差值、信号降噪(滑动中值滤波、滑动均值滤波)5、表情归类方法包括阈值设置法、合并相邻行为、丢弃最短行为法,确保表情识别效度★6、表情编码模式支持:支持手动编码(Manual Coding)、自动编码(Auto Coding)、混合编码(Merge Coding)7、21种微表情识别 包括:抬起眉毛内角、抬起眉毛外角、皱眉(降低眉毛)、上眼睑上升、脸颊提升、眼轮匝肌外圈收紧、眼轮匝肌内圈收紧、皱鼻、拉动上嘴唇向上运动、拉动人中部位的皮肤向上、拉动嘴角倾斜向上、急剧的嘴唇拉动、收紧嘴角、拉动嘴角向下倾斜、拉动下唇向下、推动下唇向上、撅嘴、嘴角拉伸、收紧双唇向外翻、眼睛扩大、张嘴★8、情感效价模型计算,支持自动识别正性、负性、中性表情★9、表情自定义算法,含编码分析、表情交互分析、表情延迟分析,支持生成可视化统计图及统计表10、数据导出包括7种表情原始数据、头部位置参数、面部特征点数据,支持进行二次分析与开发★11、投标产品软件需提供中英文双语版本。
售后服务

信息来源:http://**
    
查看详情》
相关推荐
 

招投标大数据

查看详情

收藏

首页

最近搜索

热门搜索