新研究揭示人类视觉如何感知尺度
阿斯顿大学和约克大学的研究人员发现了关于人脑如何对外部世界进行感知判断的新见解。
这项研究于 5 月 8 日发表在PLOS ONE杂志上,探索了人脑用来感知我们周围世界物体大小的计算机制。
由阿斯顿大学视光学院的Tim Meese 教授和约克大学心理学系的 Daniel Baker 博士领导的这项研究告诉我们更多关于我们的视觉系统如何利用“散焦模糊”来推断感知尺度的信息,但它这样做很粗鲁。
众所周知,要从视网膜图像大小推导出物体大小,我们的视觉系统需要估计到物体的距离。视网膜图像包含许多图形线索,例如线性透视,可帮助系统推导出物体的相对大小。然而,为了得出绝对大小,系统需要了解空间尺度。
通过考虑散焦模糊,例如相机焦深之外的图像模糊部分,视觉系统可以实现这一点。其他人已经很好地解决了这背后的数学问题,但该研究提出了一个问题:人类视觉是否利用了这种数学?
研究小组向参与者展示了经过各种人工模糊处理的全尺寸铁路场景照片,以及采用长时间曝光和小光圈拍摄的铁路场景的小型模型,以减少散焦模糊。任务是检测每对照片中的哪张照片是真实的全尺寸场景。
当人造模糊与全尺寸场景中的地平面(代表观看者站立的地面的水平面)适当定向时,参与者被愚弄并认为小模型是全尺寸场景。值得注意的是,这不需要应用逼真的模糊渐变。照片顶部和底部的简单均匀模糊带实现了几乎相同的小型化效果。
阿斯顿大学视觉科学教授 Tim Meese 说:“我们的研究结果表明,人类视觉可以利用散焦模糊来推断感知尺度,但它是粗略地这样做的——更像是一种启发式分析,而不是度量分析。总的来说,我们的发现提供了新的见解进入人类大脑在对我们自己与外部世界之间关系的感知判断中使用的计算机制。”
约克大学心理学高级讲师丹尼尔贝克说:“这些发现表明,我们对尺寸的感知并不完美,会受到场景其他属性的影响。这也凸显了视觉系统非凡的适应性。这“可能与理解我们对世界的感知背后的计算原理有关。例如,在判断驾驶时危险的大小和距离时。”
版权声明:本文由用户上传,如有侵权请联系删除!