您的位置:首页 >综合百科 >正文

帮助机器人评估风险

摘要 利哈伊大学罗辛工程与应用科学学院机械工程和力学教授 Nader Motee (下图)表示:机器人要想在未来实现真正的自主性,它们必须能够在做出...

利哈伊大学罗辛工程与应用科学学院机械工程和力学教授 Nader Motee (下图)表示:“机器人要想在未来实现真正的自主性,它们必须能够在做出决策之前评估风险。”

Motee 最近从海研究办公室获得了近 68 万美元的资助,用于开发一种新颖的、多阶段的、基于感知的控制范式,该范式将从根本上帮助机器人评估风险,并最终使自主系统更安全、更高效。

我们人类一直在进行风险分析——从我们如何开车到我们说什么以及我们如何说。这种分析使我们能够做出决定——放慢速度,说“对不起”,也许不要在短信中使用全部大写。目前,机器人无法进行此类分析,这意味着它们无法自行做出决定(毫无疑问,这对我们大多数人来说是一种解脱)。但是,一个拥有自主机器人的世界可能是一个我们人类从机器那里获得许多有意义的帮助的世界,例如在灾难恢复方面的更多帮助。

然而,为了进行风险分析,机器人首先需要量化感知的模糊性。“对于人类来说,我们的感知是基于我们过去学到的东西,”莫蒂说。“但是机器人或人类可以获取的任何给定物体的样本数量是有限的。因此,机器人看到的东西总是存在模糊性和不确定性。这是停车标志吗?最重要的是,如果环境中有噪音,比如雨、雾或,物体本身就会存在不确定性。 这到底是一个标志吗? 因此,不仅对象存在不确定性,而且该对象在该类中的身份也存在不确定性。因此,模糊性就是不确定性中的不确定性。”

机器人的模糊感知是危险的——例如,考虑一下自动驾驶汽车将停车标志视为限速标志的后果。

这是一个真正需要解决的问题,莫蒂和他的团队正在通过量化不确定性的来源来解决这个问题。本质上,他们想要进入一系列感知模块(使用视觉传感的机器学习模型)的黑匣子,以更好地了解模型如何感知环境。

“输入(图像)和输出(标签(如交通标志))之间的关系非常复杂,”他说。“但是为了量化感知的模糊性和输出,我必须分析这些模型以及这两个量之间的关系。然后我可以计算如果我对输出有一些不确定性,那么如何将其转移到输出。”

这是第一步。

“一旦我们量化了模糊性,”他说,“我们就可以将风险衡量标准用于决策目的。”

理论上,能够评估风险的机器人可以对其下一步行动做出安全的决定。一组机器人可以有效地进行沟通。他们还可以感知周围人类的行为,并推断如何最好地帮助他们。

“但他们必须首先评估风险,以确定他们的下一步行动是否真的会帮助人类,或者使他们的工作更加困难。他们必须进行大量分析。”

莫蒂和他的团队也将如此。但他发现感知模块作为互联网络的未来前景令人兴奋。他们可以感知有关我们的健康、交通系统和安全的信息。

“这些模块将相互协作,”他说,“并希望创建一个可以改善我们的健康和生活方式的智能社会。”

版权声明:本文由用户上传,如有侵权请联系删除!