欢迎光临
我们一直在努力
您的位置:首页>资讯 >

为了刺激人工智能的发展 我们需要一种新的法律责任方法

人工智能 (AI) 正在席卷从网络安全到环境保护的各个行业——而 当前局势只会加速这一趋势。人工智能可能会改善数百万人的生活,但它也不可避免地会造成伤害人员或当事人的事故——事实上,它已经通过自动驾驶汽车碰撞等事件发生了。然而,美国和其他国家过时的责任制度无法管理这些风险,这是一个问题,因为这些风险会阻碍人工智能的创新和采用。因此,改革责任制度至关重要。这样做将有助于加速人工智能的创新和采用。

错误分配的责任会以多种方式阻碍创新。在其他条件相同的情况下,希望在两个行业之一中实施系统的 AI 设计师将避开对设计师施加更多责任的行业。同样,如果人工智能算法在没有任何补偿的情况下承担进一步的责任风险,人工智能系统的最终用户将拒绝采用。需要进行责任改革来解决这些问题。我们提倡的许多变化都涉及重新平衡参与者之间的责任——从最终用户(医生、司机和其他人工智能消费者)到更上游的参与者(例如设计师、制造商)。

我们按照易于实施的顺序讨论它们,从最简单到最困难。虽然我们专注于美国的责任制度,但我们建议的基本原则可以应用于许多国家。事实上,在任何地方忽视责任都可能导致人工智能的不安全部署和阻碍创新。

修订护理标准

行业为改变其责任负担而可以做出的最直接的改变之一是采用和改变谨慎标准——法律或其他专业标准要求的针对特定情况的行为。这些影响在医学、法律和其他职业中最为明显。如果当前的行业参与者对自己的行业以及人工智能如何适应具有专业知识和远见,改变护理标准可以在对抗和促进人工智能之间产生差异。

例如,代替放射科医师提供图像的唯一读取,AI 系统可以提供图像的初始读取,放射科医师提供随后的二次读取。一旦这成为放射学实践中的护理标准,那么如果医生遵守特定的护理标准,人工智能的潜在责任负担就会减轻。随着人工智能在医疗实践中占据更大的立足点,临床医生和卫生系统可以共同行动,通过将人工智能集成到他们的护理标准中来促进人工智能的安全引入。

改变谁支付:保险和赔偿

保险和赔偿为重新平衡责任提供了其他解决方案。这两个概念是相关的,但又是不同的。保险允许许多投保人集中资源来保护自己。赔偿允许两方或多方在合同中定义、划分和分配责任,实质上是在他们之间转移责任。两者都允许 AI 利益相关者直接相互协商以规避责任规则。

保险公司将了解他们提供保护的行业的每一个细微差别作为他们的业务。事实上,他们经常接触到特定领域最好的和最坏的实践。由于他们的数据收集,保险公司可以强制执行诸如人工智能测试要求和禁止特定算法之类的实践。随着行业的发展和保险公司收集数据,这些可能会随着时间的推移而发生变化。

事实上,一些汽车保险公司已经赞助了自动驾驶汽车导航软件等新人工智能技术的数据收集工作。保险公司可以以较低的价格奖励用户选择某些更有效的人工智能程序,就像保险公司已经奖励司机选择更安全的汽车和避免事故一样。因此,保险公司将通过两种方法促进人工智能的采用:1) 通过将风险分散到所有保单持有人来降低责任成本,以及 2) 为希望使用人工智能的公司开发最佳实践。

另一方面,赔偿可以在两方之间提供一定的责任确定性。赔偿条款已被用于在卫生系统和制药或设备公司之间分配临床试验中的责任。

修改规则:更改责任默认值

保险和赔偿采用当前的责任制度,并允许参与者对其边缘进行修补。但人工智能可能需要的不仅仅是修补;它可能需要更改默认责任选项。例如,在大多数州,汽车事故的默认规则是追尾另一辆车的司机应对事故负责。在一个“自动驾驶”汽车与人类驾驶汽车混合在一起的世界里,这条规则可能不再有意义。可以对人工智能系统进行编程,以保护汽车乘员免受此类责任的影响,因此可能会尝试转向另一条车道或更危险的情况(例如,转向有碎片的车道)。

当我们相信人工智能会否决人类时,谁来负责?责任假定是人造成事故。传统的默认责任规则需要改变。法院可以在做出由事故引起的决定时做一些工作,但立法机构和监管机构可能需要制定新的默认规则来应对人工智能事故。这些可以直截了当但很明确,例如将任何 AI 错误归因于用户。或者它们可以更加细微,比如在用户和设计师之间预先分配责任。

创建新的审判员:特别法庭和责任制度

事实上,由于大数据集、专门处理或利基技术问题,传统责任机制可能难以处理伤害责任。一种解决方案是将有关某些类型的算法、行业或事故的争议提交给专门法庭,从而免除某些活动的责任,以简化问题并将案件集中到一个地方。人们可以想象一个专门的法庭,它发展出裁决的技能,例如,由两种算法相互作用导致的病理算法或事故。

最好的情况是,与当前的法律系统相比,仲裁庭系统将争议汇集到更简单的系统中,由纳税人或使用费支持,并配备专门的裁决员、更简单的规则和(希望)更低的交易成本。专门的裁决可以与传统的责任计划共存。

佛罗里达州和弗吉尼亚州为某些新生儿神经系统损伤建立了专门的裁决系统。美国联邦政府已经制定了应对措施计划,为因用于应对突发公共卫生事件的药物和设备而受伤的人提供赔偿,由于当前局势,许多人可能会体验到这一系统。在医疗保健之外,许多州提供在正式法院系统之外确定的工人补偿福利。

完全终止责任:总监管计划

即使是将一些纠纷从传统责任制度中拉出来的激烈解决方案也可能是不够的。例如,某些 AI 应用程序可能被认为非常重要,以至于我们将尝试通过全面的法规网络来防止错误和免除责任。通过采用全面的监管计划来预防侵权行为,可以完全免除负责监管跨州电力传输、引导飞机着陆和其他系统的人工智能系统中的错误。

监管可能是适合“黑盒”算法的模式——一种不断更新的算法,由计算机直接从数据中学习而不是由人类指定输入生成。为了在训练后考虑不断变化的外部因素,黑盒算法不断地用越来越多的数据改进他们的预测,以提高他们的准确性。但是,无法确定变量的准确身份和权重。没有人——用户、设计师或受害方——可以“深入了解”并知道黑盒算法是如何做出特定决定的。这种困难可能会使管理黑匣子开发、测试或实施的法规在每次发生伤害时都比法庭案件更适合。

诚然,试图完全指定人工智能系统的监管计划几乎肯定会阻碍创新。但在药物开发等特定领域,这些成本可能是可以接受的,在这些领域,全面的食品和药物管理局监管计划可以完全取代责任。

鉴于人工智能带来的巨大创新,通常很容易忽视责任问题,直到产品进入市场。人工智能的政策制定者、设计师和最终用户应该制定一个平衡的责任制度来促进人工智能——而不是仅仅对它做出反应。建立这个21日世纪的责任制度将确保21日世纪AI将蓬勃发展。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。