Deepfake的微笑不那么重要
在我们的数字时代,人工智能 (AI) 可以制作出看似真实的人脸,而深度造假技术的出现可能会模糊现实与数字制造之间的界限。这些人工智能生成的面孔虽然在技术上令人震惊,但具有重大的社会影响,需要进行彻底的检查。最近发表在《科学报告》上的一项研究由智能科学 (SCIoI) 科学家 Anna Eiserbeck、Martin Maier、Julia Baum 和 Rasha Abdel Rahman 进行,深入研究了与 人工智能生成的面孔的感知相关的心理和神经影响,尤其是聚焦关于他们所描绘的情感表达。
生成式人工智能产品,例如看似真实的人物照片和视频,即所谓的“深度伪造”,正变得越来越普遍。然而,到目前为止,我们还不清楚知道一张脸是否真实会如何影响我们对它的感知和情感反应。在他们的新研究中,研究人员分析了参与者认为是真实的或计算机生成的微笑、愤怒和中性面孔的面部表情评级和大脑反应。结果表明,计算机生成的微笑在几个层面上对我们来说不太重要:它被认为不那么强烈,在大脑中引起的情绪反应较弱,并且似乎让我们停顿。另一方面,无论我们是否相信它们是真实的,愤怒的面孔仍然同样具有威胁性。这些基本的新发现对我们作为一个社会如何处理深度伪造品产生了影响,无论它们被用于善意还是作恶。
Deepfakes 和人脑:感知和情绪评估的研究
这项研究涉及 30 名参与者,利用脑电图技术,探讨了相信所描绘的个人是真实的还是深度伪造的对面部感知的心理和神经测量的影响。用 SCIoI 研究员 Martin Maier 的话来说:“与被标记为真实的笑脸相比,当面对被标记为深度伪造的笑脸时,参与者表现出感知和情感反应减少,并且评估过程更慢。有趣的是,这种影响并没有反映在对负面表达的感知中,无论是真实的还是虚假的,负面表达的感知都保持一致。” 这些发现强调了情感效价和假定真实性之间复杂的相互作用,并标志着首次区分深度伪造品所描绘的积极和消极表达之间的心理影响。该研究的首席研究员拉沙·阿卜杜勒·拉赫曼 (Rasha Abdel Rahman) 补充道:“当真假面孔难以区分时,感知和情绪反应可能在很大程度上取决于你之前的信念,即你所看到的东西实际上是真实的还是假的。”
为了得出这些结论,研究人员研究了大脑对面部图像的反应如何随着时间的推移而演变,重点关注三个阶段: 早期视觉感知(面部出现后最多 200 毫秒,甚至在我们意识到看到它之前) )、反射性情绪处理(200 – 350 毫秒,反映我们即时的情绪反应)和更高级别的评估处理(350 毫秒及以后,标志着更深思熟虑的考虑)。他们使用一种称为事件相关电位(ERP)的方法来跟踪这些阶段。研究结果表明,当人们看到他们认为是由深度换脸技术创造的微笑时,他们典型的早期视觉和情感反应会较弱。理解这一点对于我们可能遇到深度赝品的不同情况有直接的影响:例如,当用于还原年轻版本的电影角色时,希望人工生成的角色的情感表达看起来像真实的角色一样生动和真实。演员。研究结果表明,在这些情况下,知道角色是人工生成的可能会损害其影响,尤其是对于积极情绪而言。当在错误信息活动的背景下使用时,结果表明,尽管观察者可能怀疑这些图像是假的,但人为生成的负面内容可能会持续存在。
Deepfake 技术的影响和未来方向
这项研究的结果是理解人类与人工智能生成的面孔互动的行为和神经动力学的基石,同时这些发现强调了在制定政策和策略时采取细致入微的方法的必要性,以驾驭不断发展的深度造假技术领域。研究结果还为进一步探索人工智能生成内容的其他领域(例如文本、视觉艺术或音乐)提供了起点。随着深度造假技术的不断发展,对其心理和神经影响的深刻理解成为最优化地利用其潜力造福社会和增强社会抵御其带来的各种挑战的能力的核心。
版权声明:本文由用户上传,如有侵权请联系删除!