欢迎光临
我们一直在努力
您的位置:首页>资讯 >

NIST呼吁帮助开发管理AI风险的框架

美国商务部下属的国家标准与技术研究院 (NIST) 正在征求公众对人工智能风险管理框架的意见,该组织正在开发该框架,以作为“管理人工智能带来的风险。”

人工智能风险管理框架 (AI RMF) 将是一份自愿性文件,开发人员、评估人员和其他人可以将其用作“提高人工智能系统可信度”的一种方式。

NIST 指出,在国会和白宫要求该组织为人工智能创建框架之后,才提出了意见请求。

商务部副部长唐格雷夫斯在一份声明中表示,该文件“可能会对新的人工智能技术在市场上是否具有竞争力产生重大影响。”

“人工智能为我们带来了广泛的创新和新能力,可以促进我们的经济、安全和生活质量,这一点每天变得越来越明显。至关重要的是,我们要注意并准备好管理人工智能技术带来的风险与他们的好处,”格雷夫斯说。

“这个人工智能风险管理框架将帮助人工智能的设计者、开发者和用户考虑所有这些因素——从而提高美国在竞争非常激烈的全球人工智能市场中的能力。”

围绕人工智能在各行各业的使用,越来越需要某种形式的监管,尤其是当它开始被纳入许多关键、敏感的流程时。研究表明,数百个 AI 系统缺乏其创造者尚未解决的偏见。

一家名为 Lemonade Insurance 的保险公司在 5 月份因宣布其人工智能系统将根据事故发生后提交的视频判断一个人是否在车祸中撒谎而面临强烈反对。

在公共和私人机构采用的面部识别软件中,已经有一项结束人工智能使用的长期运动。

NIST 的联邦 AI 标准协调员、国家 AI 研究资源工作组成员 Elham Tabassi 解释说,要让 AI 充分发挥其造福社会的潜力,它必须是一项值得信赖的技术。

“虽然可能无法消除人工智能固有的风险,但我们正在通过一个共识驱动的协作过程来开发这个指导框架,我们希望这将鼓励其广泛采用,从而最大限度地减少这些风险,”Tabassi 说。

NIST 指出,新的基于人工智能的技术、产品和服务的开发和使用带来了“技术和社会挑战和风险”。

“NIST 正在征求意见,以了解参与开发和使用人工智能系统的组织和个人如何能够解决人工智能风险的全部范围,以及如何构建管理这些风险的框架,”NIST 在一份声明中说。

NIST 专门寻找有关开发人员在改进 AI 相关风险管理方面面临的最大挑战的信息。NIST 也有兴趣了解组织目前如何定义和管理 AI 可信度的特征。该组织同样也在寻求关于人工智能风险在多大程度上被纳入组织的总体风险管理的意见,特别是在网络安全、隐私和安全方面。

NIST 预计会在 8 月 19 日之前收到回复,他们计划在 9 月举办一次研讨会,专家将能够帮助创建初稿的大纲。

初稿发布后,NIST 将继续对其进行处理,并可能会回来征求更多公众意见。

白宫科技政策办公室国家 AI 倡议办公室主任 Lynne Parker 表示,AI 风险管理框架将“满足推动可信赖的 AI 方法的主要需求,以负责任、公平和有益的方式为所有人服务.”

“人工智能研究人员和开发人员需要并希望在人工智能技术开发之前、期间和之后考虑风险,这个框架将为他们的工作提供信息和指导,”帕克补充道。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。