无论怎么说都不够:每个创造人工智能(AI)的组织都有责任在道德上这么做。负责任的,或道德的,人工智能是公正的,公平的,并改善它所接触的每个人的生活质量。在实践中,它要求人工智能从业者将道德框架应用于他们所追求的每一个人工智能努力,确保人、流程和工具为更大的使命服务。
在整个AI价值链中,负责任的AI可能并且应该发挥作用的重要接触点。如果AI开发人员忽略了任何接触点,他们将整个项目放在风险,以满足公平和公平的标准。了解链中的每个链接如何影响下一步,以及在每个阶段相关的考虑是启动负责任AI的AI从业者的基础步骤。
AI开发周期
在开始任何AI项目之前,您的团队可以采取几个操作来为构建道德AI产品的基础。
- 请注意,您最终产品必须遵守的规定。这些因地理而异;这GDPR,涵盖了欧盟的人工智能开发和应用。
- 创建一个反映负责任的人工智能视角的人工智能治理框架。在这个框架中包含指导性问题,帮助您解决AI开发生命周期中需要考虑的关键问题。特别是,数据治理应该是一个关注的领域,因为它对模型性能有重大影响。
- 招募一个不同的数据科学家和研究人员,可以为AI开发带来不同的观点和经验。
通过完成这些初始步骤,您将更准备在整个AI构建过程中做出负责任的决策。在选择一个营业问题的问题之后,AI值链从数据收集开始,并通过部署进行进展,然后再次在后期再次培训期间再次进行循环之前。我们将介绍在每个阶段考虑的关键负责任的AI考虑因素:
数据采集
在采购数据时,使其成为尽可能完整和包容的数据的目标。在数据中表示的最终用户(特别是它们各自的用例),您的AI越好将为各种组执行。道德AI是对产品的思想来说是对每个人的思想,而代表性数据是创造该等资产的基础。
如果您是从第三方获取数据,理想情况下,您需要共同负责确保数据是公正的。不过,最好不要做任何假设。例如,如果您正在收集科学家的图像数据,您不能假设所有类型的科学家都在数据集或所有人口统计中。即使您已经被告知了很多,最终还是要由您来仔细地对数据进行质量检查,以覆盖所有可能的用例。
数据准备
通常,当我们谈论关于数据准备的负责任的AI时,我们专注于注释过程本身,目标是应用准确,无偏的标签。实际上,这在对最终模型的性能中影响偏差方面是关键任务。这一步骤的一个关键组成部分正在招募一个不同的人(理想情况下,那些高度代表您最终用户的人)提供数据标签。更大的多样性促进不同的观点,并减少了引入片面判断的可能性。
我们经常忽视数据准备是对数据背后的人的待遇。作为AI从业者,确保这些人获得公平的待遇,因为它们是AI价值链的关键但低估的部分。公平待遇可能包括提供公平的薪酬,保护其隐私权,并提供开放的沟通方式进行反馈。(看看Appen如何解决我们的贡献者的福祉,看看我们的人群道德规范)。
模型培训和测试
负责任的人工智能不仅仅是数据。在构建模型并开始在准备好的数据上训练它之后,您将监视它的性能。当然,性能测量中最常见的度量标准是模型预测的准确性(例如,它是否总是能在图像中识别出行人,在那里人们可以看到过马路?)
然而,准确性需要更多细微差别。您需要为每组最终用户进行评估模型的准确性。The groups you select will depend on the problem you’re trying to solve, but always be aware when you’re interfacing with protected classes of people (i.e., people who share a common trait, such as race or gender, that’s legally protected). Does your model perform equally well for protected classes vs. non-protected? If not, you likely need to retrain your model on additional data representing the underperforming classes.
在衡量模型的准确性之上,考虑包括直接测量偏差的指标。结合偏差度量可以帮助您捕捉偏见的实例迅速 - 尽管它不应该取代人类完成的定期质量检查。请注意,如果您需要有关如何将其添加到仪表板的进一步指导,则存在提供此功能的软件选项。
后生产
在部署模型之后,继续跨用户组评估它的性能,并检查它是否按预期工作。重要的是让用户能够轻松地提供反馈,以便您能够尽可能快地捕捉和修复问题。
如果你不重新培训它,你的模型性能会随着时间的推移而下降;大多数模型不是在静态环境中运行的,并且经常面临以前从未遇到过的数据变化。通过再次开始收集数据并完成AI开发周期的其余部分,定期重新训练你的模型。
负责任的人工智能的下一步
如果我们看一下负责任的人工智能的整体前景,我们仍然需要进步。更多的公司需要明白,负责任的人工智能是成功的关键,也是工作的一部分,而不仅仅是一种好东西。对这一想法的更多接受将减少未来对严格的、潜在的阻碍性的监管的需要。
作为一名人工智能从业者,你现在还能做些什么来推动负责任的人工智能的发展?了解最新的道德人工智能新闻,探索不同的行业,了解他们是如何处理这个概念的,并定期向客户和注释者征求反馈。详细记录你在开发中做出的选择和使用的工具,以帮助解决AI的可解释性问题,帮助我们所有人更好地理解这些创新是如何工作的。最重要的是,在整个AI开发周期中,每个项目都要致力于公平和包容。
-
了解更多!看CallMiner的研讨会跨越价值链的负责任AI听取包括Appen在内的行业代表关于这个重要话题的意见。