欢迎光临
我们一直在努力
您的位置:首页>资讯 >

道德人工智能医疗器械制造商的潜在标准

虽然人工智能 (AI) 有可能彻底改变许多行业,但该技术并非没有争议。在过去几年中,研究人员和开发人员对广泛采用 AI 的潜在影响以及缺乏现有道德框架如何使消费者面临风险提出了担忧。

这些担忧可能与医疗设备制造商尤其相关,他们越来越多地在智能显示器和健康可穿戴设备等新型医疗设备中使用人工智能。关于道德人工智能的新标准和法规可能为有兴趣利用人工智能的医疗设备制造商提供必要的指导。

当前人工智能应用中的伦理挑战

人工智能的广泛使用可能会带来许多道德挑战。其中一些挑战仍然是假设性的。例如,当人工智能犯错时,谁来负责?我们如何防止错误开始?

如果自动驾驶汽车发生事故,企业可能无法确定是什么系统导致了事故——机械故障还是人工智能驾驶算法的错误。

如果发生工业事故,工人通常有权从雇主那里获得赔偿。在这种情况下,使用 AI 是否会使确定故障的过程更加困难?

其他潜在的道德问题已经导致了现实世界的后果。例如,亚马逊在发现该公司开发的人工智能算法正在贬低女性简历后,放弃了一个实验性的简历扫描工具。

人工智能驱动的医疗保健系统一直在努力解决类似的问题。例如,《科学美国人》杂志 2020 年的一份报告指出,在分析来自代表性不足的群体的健康数据时,人工智能驱动的诊断算法通常表现更差。例如,该文章引用了一份报告,该报告描述了旨在支持医生阅读胸部 X 光片的人工智能,但当看到来自“代表性不足的性别”的 X 光片时,这些人工智能最终表现更差。SA还提到了另一篇文章“皮肤病学中的机器学习和医疗保健差异”,该文章分享了对主要根据浅肤色个体数据训练的皮肤癌检测算法的潜在后果的担忧。

智能健康可穿戴设备等设备有可能彻底改变医疗保健——但如果它们依赖的算法有偏见,它们的实用性可能会受到限制。

问题在于人工智能所依赖的海量数据集。在分析来自训练数据中代表性不足的群体的新数据时,人工智能算法通常表现更差。在实践中,这通常意味着训练会将现有偏差编码为新算法。与此同时,人工智能的使用可能会给这些偏见披上客观的外衣,有时会让它们在不被发现的情况下溜走。

潜在的人工智能道德标准

虽然对其中许多问题还没有明确的解决方案,但许多人工智能组织已经率先制定新的法规和标准,以帮助对人工智能开发感兴趣的公司。

过去几年出现了大量的人工智能伦理框架。德勤的一份报告总结了这些框架中的主要趋势,并确定了一些他们倾向于强调的广泛原则——“善行、非恶意、正义和自主”。

这些框架及其关注的原则可以为设备制造商提供一个起点,以应对 AI 在新设备中的潜在影响。制定更具体的认证和监管标准也可能有助于为关注人工智能采用的道德影响的企业提供指导。

例如,电气和电子工程师协会 (IEEE)于 2018 年启动了自主和智能系统道德认证计划(ECPAIS)。该计划的目的是为致力于人工智能系统的开发人员制定规范和认证框架。缓解透明度、问责制和人工智能偏见等问题。最终,该组织希望 ECPAIS 认证能够向最终用户和个人消费者保证某些 AI 产品是安全的,并且他们的开发人员正在采取积极措施来管理 AI 可能带来的道德挑战。人工智能中的偏见可能需要进一步阐述开发人员的最佳实践和新指南。

主要的人工智能组织已经在理解数据集中的偏见如何转化为人工智能算法的偏见方面取得了进展。这种理解帮助他们开发了新的框架来防止新 AI 算法中的偏见。

例如,谷歌的人工智能部门已经发布了一套关于负责任地使用人工智能的建议。IBM 的Fairness 360 框架提供了一个“全面的开源指标工具包”,可以帮助开发人员发现新 AI 算法中不需要的偏见。

无论如何,医疗器械制造商可能需要更好的培训和数据收集方法,以最大限度地减少新医疗保健算法中的偏见。

新标准可以帮助开发人员应对人工智能的道德挑战

越来越多地使用人工智能意味着企业已经开始认真考虑他们将如何管理人工智能算法可能带来的道德问题。

新框架、指南和标准的开发可以帮助企业指导新的人工智能系统和产品的开发。许多组织已经发布了道德 AI 开发的最佳实践——目前正在开发的认证可能很快就会为企业提供额外的结构。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。