欢迎光临
我们一直在努力
您的位置:首页>人工智能 >

为自动驾驶汽车监管制定了初步的联邦框架

017年底,美国众议院通过了一项名为“SELF DRIVE法案”的法案,为自动驾驶汽车监管制定了初步的联邦框架。近二十年来,自动驾驶汽车一直在公共道路上进行测试。随着这项法案的通过,以及自动驾驶汽车日益增加的安全优势,它们很可能会在我们的日常生活中变得更加普遍。许多自主技术都是如此,包括医疗,法律和安全领域的技术 - 仅举几例。

为此,研究人员,开发人员和用户必须能够对这些严重依赖人工智能(AI)的技术充满信心。这超越了自动驾驶汽车,适用于从智能家居中的安全设备到手机中的个人助理等各种应用。

机器学习的可预测性

斯坦福大学计算机科学助理教授Percy Liang解释说,人类在日常交互中依赖于某种程度的可预测性 - 包括其他人类和自动化系统(包括但不限于他们的汽车)。创建这种可预测性的一种方法是利用机器学习。

机器学习处理允许AI基于从先前经验收集的数据“学习”的算法。开发人员不需要编写规定AI的每个操作或意图的代码。相反,系统根据其经验识别模式,并基于该数据采取适当的行动。它类似于反复试验的过程。

在研究和测试环境中经常被问到机器学习系统的一个关键问题是,“为什么系统做出这个预测?”关于这种意图的搜索,Liang解释说:

“如果你正在过马路,而且有一辆汽车驶向你,那么你就可以了解其他人类驾驶员会做些什么。但如果汽车由人工智能控制,那么人类应该如何表现呢?“

重要的是要看到一个系统运行良好,但更重要的是它能够以易于理解的术语解释它为何采取行动。即使系统不准确,也必须是可解释的和可预测的。为了安全地部署AI,系统必须依赖于充分理解,现实和可测试的假设。

目前探索可靠AI概念的理论着重于在训练数据中拟合可观察的输出。然而,正如梁解释的那样,这可能导致“自动驾驶系统在验证测试中表现良好,但不了解所需输出的人类价值。”

当然,运行多个测试很重要。Liang解释说,这些类型的模拟“对于调试技术很有用 - 它们使我们能够更轻松地执行受控实验,并且可以实现更快的迭代。”

然而,要真正了解一项技术是否有效,“没有任何替代品可以应用于现实生活,”梁说,“这适用于语言,视觉和机器人。”自动驾驶汽车在所有测试条件下都表现良好,但没有办法准确预测它在不可预测的自然灾害中的表现。

可解释的ML系统

许多领域中表现最佳的模型 - 例如,用于图像和语音识别的深度神经网络 - 显然非常复杂。这些被认为是“黑盒模型”,他们的预测即使不是不可能,也很难解释。

梁和他的团队正在努力通过研究特定培训情况如何导致预测来解释这些模型。正如Liang解释的那样,“机器学习算法采用训练数据并生成一个模型,用于预测新的输入。”

这种类型的观察变得越来越重要,因为AI承担更复杂的任务 - 思考生死攸关的情况,例如解释医疗诊断。“如果训练数据具有异常值或异常生成的数据,”梁说,“这将影响(破坏)模型,这反过来会导致对新输入的预测可能是错误的。影响函数允许您精确跟踪单个训练点对特定新输入的预测的影响方式。“

基本上,通过理解模型为何做出决策,Liang的团队希望改进模型的运作方式,发现新的科学,并为最终用户提供对影响他们的行为的解释。

梁的研究的另一个方面是确保AI理解并且能够与人类进行沟通。他解释说,传统的成功指标是平均准确度,“这不是人工智能安全的良好界面。”他认为,“与80%可靠系统有什么关系?”

Liang并不是在寻找系统在100%的时间内得到准确答案。相反,他希望系统能够在不知道答案时承认。如果用户询问系统“我应该服用多少止痛药?”,系统最好说“我不知道”,而不是做出代价高昂或危险的错误预测。

Liang的团队正在通过其学习算法跟踪模型的预测来应对这一挑战 - 一直回到模型参数产生的训练数据。

Liang的团队希望这种方法 - 通过培训数据的镜头来看模型 - 将成为开发,理解和诊断机器学习的工具包的标准部分。他解释说,研究人员可以将其与许多应用相关联:医疗,计算机,自然语言理解系统和各种业务分析应用程序。

“我认为,”梁总结说,“对于模拟的作用存在一些混淆- 有些人完全避开它,有些人很乐意在模拟中做所有事情。也许我们需要在文化上改变,为两者都占有一席之地。”

通过这种方式,Liang和他的团队计划为新一代机器学习算法奠定一个框架,这些算法可靠地工作,优雅地失败并降低风险。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。