欢迎光临
我们一直在努力
您的位置:首页>人工智能 >

AI模型的可解释性与准确性

使AI驱动的模型透明化是一个挑战。它们是一个黑匣子,可能会导致严重的问题。玻璃箱的目的是为模型的运行方式以及输出达到的方式提供更大的透明度。

当今问题的复杂性意味着现代企业越来越依赖人工智能。数据科学家正在从到医疗保健的所有领域中使用AI驱动的模型来解决现实世界中的问题。但是,由于构建模型的复杂性可以在一分钟内测试数百万个假设,因此使这些模型透明是一个挑战。他们是一个黑匣子。

结果,当非数据科学家访问这些模型时,他们对如何达到输出的了解非常有限,这可能导致将其视为福音。由于各种实词原因,输出实际上可能更糟糕。由于个人无法解释此类模型的意外偏见和不准确之处,因此产生了严重后果。

而且,由于数据科学主要是技术领域,即使是受过广泛培训的人员也没有能力考虑道德或道德问题,如何使用黑匣子的输出。这就是“玻璃箱”的出现位置。

玻璃箱的目的是为模型的运行方式以及输出达到的方式提供更大的透明度。如果我们看最简单的模型(例如线性回归),则可以完全了解变量,并且输出应该是显而易见的。这是玻璃箱。

但是,随着模型复杂性的增加,保持这种可见性变得更加困难。如果我们看一个更复杂的示例(例如深度神经网络),则几乎不可能拆开数据。

简单来说,模型中的变量越少,说明就越容易。但是,这是有代价的。更简单的模型无法满足更复杂模型的准确性;这可能导致有用的输出减少。虽然这听起来像是二进制文件,但实际上它实际上是一个滑动比例。数据科学家将需要决定在Glassbox和Blackbox之间划界的地方,并确定哪种更适合他们的个人用例。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。