1. 首页
  2. 行业
  3. 互联网
  4. 基于卷积神经网络的动态场景视觉注意预测模型.pdf

基于卷积神经网络的动态场景视觉注意预测模型.pdf

上传者: 2020-06-01 17:13:06上传 PDF文件 8.33MB 热度 36次
2020年IEEE虚拟现实国际顶级会议资料: 基于卷积神经网络的动态场景视觉注意预测模型。 在虚拟现实领域中,用户的注视信息可以被应用到很多不同的方面。目前虚拟现实中眼动追踪的解决方案主要是基于眼动仪。眼动仪虽然准确,但是价格昂贵、需要校准、且并非广泛可用。此外,眼动仪只能够测量用户当前时刻的注视位置,不能预测用户在未来时刻的注视。 资料中提出了一个新颖的基于CNN的注视预测模型DGaze,该模型可以用于虚拟现实头盔(HMD)中的注视预测。DGaze模型结合了动态物体位置序列、用户头动速度序列、以及场景内容的显著性特征来预测用户的注视位置。
下载地址
用户评论