您的位置:首页 >知识精选 >正文

UMD领导新的2000万美元NSF法律和社会可信人工智能研究所

摘要 马里兰大学已被选中领导一项由国家科学基金会(NSF) 支持的多机构合作项目,该项目将开发新的人工智能 (AI) 技术,旨在促进信任和降低风

马里兰大学已被选中领导一项由国家科学基金会(NSF) 支持的多机构合作项目,该项目将开发新的人工智能 (AI) 技术,旨在促进信任和降低风险,同时增强和教育公众。

国家科学基金会法律与社会可信人工智能研究所(TRAILS) 于 2023 年 5 月 4 日宣布,将人工智能和机器学习专家与社会科学家、法律学者、教育工作者和公共政策专家联合起来。这个多学科团队将与受影响的社区、私营企业和联邦政府合作,以确定对人工智能的信任是什么样的,如何为人工智能开发可信任的技术解决方案,以及哪些政策模型最能创造和维持信任。

由国家科学基金会 (NSF) 拨款 2000 万美元资助的新研究所有望将人工智能的实践从主要由技术创新驱动的实践转变为由道德、人权以及之前被边缘化的社区的意见和反馈驱动的实践.

“随着人工智能继续呈指数级增长,我们必须发挥其帮助解决我们时代重大挑战的潜力,并确保以合乎道德和负责任的方式使用它,”马里兰大学校长 Darryll J. Pines 说。“在联邦政府的大力支持下,这个新研究所将领导定义利用人工智能的力量造福于公共利益和全人类所需的科学和创新。”

除了 UMD 之外,TRAILS 还将包括来自乔治华盛顿大学 (GW) 和摩根州立大学的教职员工,以及来自康奈尔大学、国家标准与技术研究院 (NIST) 以及 DataedX Group 等私营部门组织的更多支持, Arthur AI、Checkstep、FinRegLab 和 Techstars。

建立新研究所的核心是达成共识,即人工智能目前正处于十字路口。注入人工智能的系统具有增强人类能力、提高生产力、促进创新和缓解复杂问题的巨大潜力,但今天的系统是在一个对公众不透明和孤立的过程中开发和部署的,因此,受影响的人往往不值得信任通过技术。

UMD 计算机科学教授Hal Daumé III说:“我们制定了研究目标,以教育、学习、招募、保留和支持社区,这些社区的声音在主流 AI 开发中往往得不到认可。” NSF 奖并将担任 TRAILS 的主任。

Daumé 说,对人工智能的不当信任会导致许多负面结果。人们常常“过度信任”人工智能系统来做他们根本无法做到的事情。这可能导致个人或组织将自己的权力交给不符合他们最大利益的系统。同时,人们也可能“不信任”人工智能系统,导致他们避免使用最终可以帮助他们的系统。

鉴于这些情况——以及人工智能越来越多地被用于调解社会的在线通信、确定医疗保健选择并在刑事司法系统中提供指导——确保人们对人工智能系统的信任与这些系统的信任相匹配已变得紧迫。可信度。

TRAILS 确定了四个关键研究重点,以促进人工智能系统的发展,这些系统可以通过更广泛地参与人工智能生态系统来赢得公众的信任。

第一种称为参与式人工智能,提倡让人类利益相关者参与这些系统的开发、部署和使用。它旨在以符合不同人群的价值观和利益的方式创造技术,而不是被少数专家控制或完全受利润驱动。

领导参与式人工智能的工作是凯蒂·希尔顿 (Katie Shilton),她是 UMD 信息研究学院的副教授,专门研究伦理学和社会技术系统。UMD 计算机科学副教授 Tom Goldstein 将领导该研究所的第二个研究重点,开发反映相关利益相关者的价值观和利益的先进机器学习算法。

Daumé、Shilton 和 Goldstein 都在马里兰大学高级计算机研究所任职,该研究所为 TRAILS 提供行政和技术支持。

版权声明:本文由用户上传,如有侵权请联系删除!