欢迎光临
我们一直在努力
您的位置:首页>资讯 >

研究表明人工智能通常是有偏见的

你能想象一个公正和公平的世界,每个人,无论年龄、性别或阶级,都能获得优质的医疗保健、营养食品和其他基本人类需求吗?人工智能和数据科学等数据驱动技术是否能够实现这一目标——或者已经驱动现实世界结果的偏见最终也会超越数字世界?

偏见代表对个人或群体的不公正。许多现有的人类偏见可以转移到机器上,因为技术不是中性的;它们的好坏取决于开发它们的人。为了解释偏见如何导致世界各地企业组织中的偏见、不公正和不平等,我将重点介绍两个现实世界的例子,其中识别了人工智能中的偏见并减轻了道德风险。

2014 年,亚马逊的一个软件工程师团队正在构建一个程序来审查求职者的简历。不幸的是,在 2015 年,他们意识到该系统在技术职位上歧视女性。由于这些歧视和公平问题,亚马逊招聘人员没有使用该软件来评估候选人。与此同时,在 2019 年,旧金山立法者投票反对使用面部识别,认为将它们用于深色皮肤的人或女性时容易出错。

美国国家标准与技术研究院 (NIST) 进行了一项研究,评估了来自 189 个组织(包括东芝、英特尔和微软)的约 100 名开发人员的面部识别算法。在谈到令人震惊的结论时,其中一位作者帕特里克格罗瑟说:“虽然跨算法做出陈述通常是不正确的,但我们发现在我们研究的大多数算法中存在人口差异的经验证据。”

列出人工智能使用中公平和非歧视风险的一些来源,其中包括:隐性偏差、采样偏差、时间偏差、对训练数据的过度拟合以及边缘情况和异常值。

隐性偏见

隐性偏见是对一个人或群体的歧视或偏见,对有偏见的人来说是无意识的。这是危险的,因为这个人没有意识到偏见——无论是基于性别、种族、残疾、性取向还是阶级。

抽样偏差

这是一个统计问题,其中从总体中选择的随机数据不能反映总体的分布。样本数据可能偏向于该组的某个子集。

时间偏差

这是基于我们对时间的感知。我们可以构建一个目前运行良好的机器学习模型,但在未来会失败,因为我们在构建模型时没有考虑未来可能发生的变化。

过拟合训练数据

当 AI 模型可以从训练数据集中准确预测值但无法准确预测新数据时,就会发生这种情况。该模型过于依赖训练数据集,无法推广到更大的人群。

边缘情况和异常值

这些是训练数据集边界之外的数据。异常值是数据正态分布之外的数据点。错误和噪声被归类为边缘情况:错误在数据集中丢失或不正确的值;噪声是对机器学习过程产生负面影响的数据。

如何识别公平和非歧视风险

分析技术

分析技术需要对训练数据进行细致评估,以了解训练数据中组的抽样偏差和不平等表示。您可以调查数据集的来源和特征。检查数据是否平衡。例如,一种性别或种族的代表性是否比另一种多?数据的大小是否足够用于训练?一些群体被忽略了吗?

一个有关抵押贷款的最近的一项研究表明,用于授予或拒绝贷款的预测模型是不准确的少数民族。芝加哥大学研究员斯科特纳尔逊和斯坦福大学经济学家劳拉布拉特纳发现,多数人和少数群体的抵押贷款批准存在差异的原因是低收入和少数群体在他们的报告中记录的数据较少。信用记录。如果没有对数据进行强有力的分析研究,偏差的原因将无法发现和未知。

在不同环境下测试模型

如果您训练数据的环境不适合更广泛的人群怎么办?将您的模型暴露在不同的环境和上下文中以获得新的见解。您希望确保您的模型可以推广到更广泛的场景。

对大约 2 亿美国公民使用的基于医疗保健的风险预测算法的审查显示出种族偏见。该算法预测应该给予额外医疗护理的患者。结果发现该系统偏爱白人患者而不是黑人患者。该算法开发的问题在于它在部署之前没有在所有主要比赛中进行适当的测试。

减轻公平和非歧视风险的策略

包容性设计和可预见性

包容性设计强调设计过程中的包容性。人工智能产品的设计应该考虑到不同的群体,如性别、种族、阶级和文化。可预见性是关于预测 AI 系统现在和随着时间的推移将产生的影响。

美国医学会杂志 (JAMA) 近期发表的一项研究回顾了 70 多篇学术出版物,这些出版物基于医生在临床医学多个领域对数字分身的诊断能力。用于训练算法的大量数据仅来自三个州:马萨诸塞州、加利福尼亚州和纽约州。该算法能否很好地推广到更广泛的人群?

许多研究人员担心皮肤癌检测的算法。他们中的大多数人在检测深色皮肤的皮肤癌方面表现不佳,因为他们主要接受过浅肤色个体的培训。皮肤癌检测模型的开发者没有在他们的模型开发中应用包容性设计原则。

执行用户测试

测试是构建新产品或服务的重要组成部分。在这种情况下,用户测试是指让来自不同群体的代表在发布之前使用您的 AI 产品对其进行测试。

STEPV分析

这是一种对外部环境进行战略分析的方法。它是社会(即社会态度、文化和人口统计)、技术、经济(即兴趣、增长和通货膨胀率)、环境、政治和价值观的首字母缩写词。执行 STEEPV 分析将帮助您在实践中检测公平和非歧视风险。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。