欢迎光临
我们一直在努力
您的位置:首页>资讯 >

如何确保您的人工智能为善项目确实表现良好

近几个月来,人工智能一直处于前沿和中心位置。全球流行病已促使全球各国政府和私人公司为从咳嗽声分析到在医院中部署消毒机器人等所有领域提供AI解决方案。这些努力是不断发展的更大趋势的一部分:公司,政府,大学和研究机构部署了旨在利用AI造福社会的项目。这些计划中的大多数计划的目标是部署尖端的AI技术,以解决“贫穷的人类”,“饥饿”,“犯罪”和“气候变化”等关键问题。

但是,什么使AI项目变得更好呢?是应用程序领域的“优点”,是健康,教育还是环境?问题是否正在解决(例如,预测自然灾害或及早发现癌症)?对社会有潜在的积极影响吗?如果是,如何量化?还是仅仅是项目背后的人的良好意愿?缺乏对AI的明确定义会给人们带来误解和误解,并带来巨大的混乱。

人工智能有潜力帮助我们应对人类最大的挑战,例如贫困和气候变化。但是,作为任何技术工具,它都与应用程序的上下文,预期的最终用户和数据的特殊性无关。出于这个原因,它最终可能最终带来有益和有害的后果。

在这篇文章中,我将概述对于好的项目,在AI中什么是对的,哪些是错误的,并会提出一些为好的项目设计和部署AI的最佳实践。

成功的故事

近年来,人工智能已被用于在各种应用中产生持久的积极影响。例如,斯坦福大学的社会公益统计一直是数据科学与社会公益联系的跨学科工作的灯塔。在过去的几年中,它在不同领域试行了各种项目,从使非营利组织与捐赠者和志愿者相匹配到调查姑息治疗中的不平等现象。它的自下而上的方法将潜在的问题合作伙伴与数据分析师联系起来,可帮助这些组织找到最迫切的问题的解决方案。社会福利统计小组的人手有限,覆盖了很多领域。它在网站上记录了所有发现,整理了数据集,并在本地和国外开展了宣传活动。

另一个积极的例子是计算可持续性网络,一个将计算技术应用于可持续性挑战(例如保护,缓解贫困和可再生能源)的研究小组。该小组采用一种补充方法,将诸如优化和时空预测之类的计算问题与可持续性挑战(如鸟类保护,用电分解和海洋疾病监测)相匹配。假设网络的成员都是这些技术的专家,那么这种自上而下的方法非常有效,因此非常适合针对当前的特定问题部署和调整解决方案。十多年来,CompSustNet的成员一直在可持续性世界与计算世界之间建立联系,以促进数据共享和建立信任。

最近的例子包括在对抗COVID-19的战斗中使用AI。实际上,已经出现了许多人工智能方法来应对大流行的各个方面,从潜在疫苗的分子建模到在社交媒体上跟踪错误信息—我曾写过一篇调查文章关于这些在最近几个月。这些工具中的一些虽然是出于良好意愿而构建的,但却会造成无意中的后果。但是,其他解决方案则产生了积极的持久影响,尤其是与医院和医疗服务提供者合作创建的几种解决方案。例如,剑桥大学的一组研究人员开发了COVID-19能力计划和分析系统工具,以帮助医院进行资源和重症监护能力计划。该系统在医院之间的部署与英国国家卫生服务局(National Health Service)进行了协调,可以分析医院收集的有关患者的信息,以确定哪些患者需要通气和重症监护。收集的数据已渗透到区域级别,从而可以在不同医院和卫生中心之间进行交叉引用和资源分配。

意外的后果

尽管项目发起人的最佳意图是,将AI应用于社会公益有时会产生意想不到的(有时甚至是可怕的)影响。一个很好的例子是现在声名狼藉的COMPAS(针对替代制裁的违法者管理概况)项目,该项目在美国部署了各种司法系统。该系统的目的是帮助法官评估犯人再犯的风险,并减轻溢出的监禁系统的负担。但是,该工具的累犯风险分数是与未必与犯罪行为相关的因素一起计算的,例如药物滥用和稳定性。经过深入的ProPublica在2016年对该工具进行的调查显示,该软件对黑人具有不可否认的偏见,该系统的使用受到阻碍。COMPAS的缺点应作为在刑事司法系统和其他政府部门中进行黑匣子算法决策的警告性故事,并且必须做出努力,以免将来再犯这些错误。

最近,另一个用于预测评分的意图良好的AI工具引起了有关英国A级考试的大量争论。学生必须在入学的最后一年完成这些考试,才能被大学录取,但由于持续的COVID-19大流行,今年已被取消。因此,政府努力使用机器学习来预测学生参加考试后的表现,然后将这些估计数用于做出大学录取决定。此预测使用了两个输入:2020年期间任何给定学生的成绩,以及该学生就读的学校成绩的历史记录。这意味着,一所一流学校的高成就学生将获得出色的预测分数,而在平均水平较高的院校中,成绩优异的学生则得分较低,尽管两个学生的成绩均相同。结果,私立学校获得最高成绩的学生数量是公立学校的两倍,而超过39%的学生的学业成绩比自动评估前一个学年的平均成绩还低。在全国学生家长数周的抗议和采取法律行动的威胁后,政府退缩并宣布将改用老师建议的平均成绩。尽管如此,这种自动评估还是在提醒人们教育系统中存在的不平等现象,这些不平等现象是通过算法决策而加剧的。结果,私立学校获得最高成绩的学生数量是公立学校的两倍,而超过39%的学生的学业成绩比自动评估前一个学年的平均成绩还低。在全国学生家长数周的抗议和采取法律行动的威胁后,政府退缩并宣布将改用老师建议的平均成绩。尽管如此,这种自动评估还是在提醒人们教育系统中存在的不平等现象,这些不平等现象是通过算法决策而加剧的。结果,私立学校获得最高成绩的学生数量是公立学校的两倍,而超过39%的学生的学业成绩比他们在自动评估之前的学年中的平均成绩有所下降。在全国学生家长数周的抗议和威胁采取法律行动之后,政府退缩并宣布将改用老师建议的平均成绩。尽管如此,这种自动评估还是在提醒人们教育系统中存在的不平等现象,这些不平等现象是通过算法决策而加剧的。超过39%的学生的学业成绩比他们在自动评估前的学年几个月所达到的平均成绩低。在全国学生家长数周的抗议和采取法律行动的威胁后,政府退缩并宣布将改用老师建议的平均成绩。尽管如此,这种自动评估还是在提醒人们教育系统中存在的不平等现象,这些不平等现象是通过算法决策而加剧的。超过39%的学生的学业成绩比他们在自动评估前的学年几个月所达到的平均成绩低。在全国学生家长数周的抗议和采取法律行动的威胁后,政府退缩并宣布将改用老师建议的平均成绩。尽管如此,这种自动评估还是在提醒人们教育系统中存在的不平等现象,这些不平等现象是通过算法决策而加剧的。

尽管COMPAS和英国政府的目标并非意料之外,但它们突出了一个事实,即AI项目并不总是具有预期的结果。在最好的情况下,这些失火即使没有解决任何具体问题,也仍然可以验证我们对AI作为积极影响工具的认识。在最坏的情况下,他们对脆弱的人群进行试验并造成伤害。

不断改善AI

好的AI最佳实践可分为两大类-提出正确的问题和包括合适的人员。

1.提出正确的问题

在直接进入打算永久应用AI的项目之前,您应该提出一些问题。第一个是:到底是什么问题?无论是贫穷,气候变化还是教养设施拥挤,都不可能解决眼前的实际问题。因此,项目不可避免地要解决实际上是一个代理问题:从卫星图像中检测贫困,识别极端天气事件,产生累犯风险评分。通常也没有足够的数据来解决代理问题,因此您需要依靠替代数据,例如每个人口普查区的平均GDP,近十年来的极端气候事件或有关囚犯假释时犯罪​​的历史数据。但是当GDP不能说明收入的全部情况时,会发生什么情况,气候事件何时变得越来越极端和不可预测,或者警察数据有偏见?您最终将获得优化错误指标,做出错误假设并产生意想不到的负面后果的AI解决方案。

反思AI是否是合适的解决方案也至关重要。通常,人工智能解决方案太复杂,太昂贵且技术要求太高,无法部署在许多环境中。因此,至关重要的是要考虑到部署的环境和约束,目标受众以及什至更简单的事情,例如在部署时是否存在可靠的能源网格。在我们自己的生活和环境中,我们认为理所当然的事情在其他地区和地区可能会非常具有挑战性。

最后,鉴于机器学习和深度学习方法当前的普遍性和可访问性,您可以理所当然地认为它们是解决任何问题的最佳解决方案,无论其性质和复杂性如何。虽然深层神经网络在某些用例中无疑具有强大的功能,并提供了大量与任务相关的高质量数据,但这些因素很少是AI优质项目中的常态。相反,团队应该在跳转到具有数百万个参数的神经网络之前,优先考虑更简单,更直接的方法,例如随机森林或贝叶斯网络。与深度学习相比,更简单的方法还具有更易于解释的附加值,这在最终用户通常不是AI专家的现实世界中非常有用。

一般来说,在开发AI公益项目之前,您应该回答以下问题:

谁来定义要解决的问题?

AI是解决问题的正确解决方案吗?

数据从哪里来?

哪些指标将用于衡量进度?

谁将使用该解决方案?

谁来维护技术?

谁将根据模型的预测做出最终决定?

如果认可机构有意想不到的后果,将追究谁或什么责任?

尽管上述任何问题都不能保证得到正确的答案,但是在涉及弱势人群和不稳定局势时,在部署像AI这样复杂而有影响力的技术之前,这是一个很好的检查。此外,人工智能研究人员必须对所使用数据的性质和局限性保持透明。人工智能需要大量数据,而根深蒂固的数据是我们社会和社会结构中固有的不平等和不完善之处。这些会不成比例地影响对数据进行训练的任何系统,从而导致应用程序放大现有偏差和边缘化。因此,从研究开始就分析数据的各个方面并提出上述问题至关重要。

在推广项目时,请明确其范围和局限性;不要只专注于它可以带来的潜在利益。与任何AI项目一样,重要的一点是要透明化所使用的方法,该方法背后的理由以及最终模型的优缺点。应该在项目的不同阶段进行外部评估,以在潜在问题渗透到整个项目之前识别出潜在问题。这些内容应涵盖道德和偏见等方面,还应涵盖潜在的侵犯人权行为以及拟议解决方案的可行性。

2.包括合适的人

AI解决方案不是在真空中或在研究实验室中部署的,而是要让真正的人参与其中,而他们应该获得正在被部署以“帮助”它们的AI的声音和所有权,而不仅仅是在项目的部署阶段。实际上,将非政府组织和慈善组织包括在内是至关重要的,因为它们在不同层面上对问题有真实的了解,并对他们需要的解决方案有清晰的认识。他们还可以帮助部署AI解决方案,从而发挥最大的作用-人们对诸如红十字会这样的组织的信任度有时甚至超过了地方政府。非政府组织也可以就AI的表现提供宝贵的反馈,并提出改进建议。这很重要因为AI造福人类的解决方案应包括和解决问题及受其影响的人群的当地利益相关者,并赋予他们权力。从问题范围确定到部署,这应该在研发过程的所有阶段进行。我在上面引用的两个成功的AI公益计划的成功案例(CompSusNet和Stats for Social Good)就是这样做的,它使来自不同领域,具有跨学科背景的人们参与进来,并以有意义的方式让他们参与有影响力的项目。

为了拥有包容性的全球AI,我们需要引入新的声音,文化和思想。传统上,关于AI的主要论述源于诸如硅谷和欧洲大陆的西方枢纽。但是,人工智能为善的项目通常部署在其他地理区域,并以发展中国家为目标人群。将AI项目的创建局限于外部视角并不能清楚地了解这些地区面临的问题和挑战。因此,与当地参与者和利益相关者互动至关重要。此外,以人工智能换取良好的项目很少是一次性的交易。您将需要领域知识来确保它们长期正常运行。您还需要投入时间和精力进行常规维护和技术支持,以支持AI公益项目。

旨在使用人工智能对世界产生积极影响的项目通常会受到热烈欢迎,但也应接受额外的审查。我在本文中介绍的策略仅作为指导框架。在推进AI公益项目的过程中,仍然需要做很多工作,但是在AI创新方面,我们越来越多地进行了这些讨论,并反思了AI与社会需求和利益之间的关系。如果这些讨论变成可行的结果,人工智能将最终发挥其潜力,成为我们社会中的积极力量。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。