公司动态

负责任的AI最佳实践:促进负责任和可信赖的AI系统 云企业战略博客

2026-01-27 14:47:23



负责任的人工智能最佳实践:推动负责任和可信赖的AI系统

重点总结

在本文中,我们探讨了负责任人工智能的重要性,特别是在生成性AI快速发展的背景下。为了确保技术的积极应用,企业需要采取一系列最佳实践,这些做法注重公平性、透明度、问责制和隐私保护。本文提供了关于如何建设负责任AI的具体建议,包括: 组建多样化团队 优先考虑教育与培训 平衡AI能力与人类判断 识别并减轻偏见

生成性AI时代的负责任AI

生成性AI的兴起带来了创新和深化我们生活与工作方式的机会。然而,强大的技术也伴随着责任。在与企业高管的交流中,大家充满热情地想要启动AI,尤其是生成性AI,但普遍有一个疑问:“我如何才能以负责任和安全的方式进行,确保为客户提供最佳体验?”这个问题尤为重要,尤其是在面对新的挑战时。

AWS最近携手白宫、政策制定者、科技组织和AI社区,共同推动AI的负责任和安全使用,承诺合作开发下一代生成性AI模型。在技术不断进步并渗透我们日常生活的过程中,建立负责任AI采用的指导方针与框架至关重要。

以下九项负责任AI最佳实践不仅涉及技术层面,更聚焦于AI采用的组织和文化维度,强调领导承诺、跨部门协作和持续教育,以推动组织内部负责任AI的文化。

以人为本的策略

1 构建多样化的跨学科团队

为了制定必要的政策和战略,最好组建一支拥有不同专业知识的团队,包括AI专家、数据科学家、伦理学家、法律专业人士和领域专家。这个团队需要全面了解AI技术、负责任的考量、法律框架及AI部署的具体领域。这种多学科的方法能确保对AI影响的全面理解,并在任何组织中有效推行负责任的AI思想。

负责任的AI并非某个实体或群体所特有,而是一个需要所有AI生态系统中的利益相关者共同参与的合作努力。

2 优先考虑教育

负责任AI的教育应超越AI开发者和数据科学家,涵盖员工、利益相关者和更广泛的社区。教育程序应关注提高对AI负责任使用的认识,包括潜在风险和最佳实践。尤其需要强调的是,偏见减轻、隐私保护、AI系统透明性和负责任使用等方面的培训。

此外,我建议建立一个内部资源库,涵盖指导方针、最佳实践文件、案例研究以及负责任AI实施的实例,并确保这些资源易于访问,定期更新,以反映快速发展的负责任AI领域。可以参考的有用资源在这里

3 平衡AI能力与人类判断

尽管生成性AI技术能够创建高度逼真的内容如文本、图像和视频,但AI也可能生成看似合理但实际错误的输出。例如,有关生成性AI为律师准备法律简报时引用虚构案件的新闻报道。这种“幻觉”的出现与过度优化、数据偏见、有限的上下文理解以及训练数据不足或过时有关。

虽然AI系统提供了无与伦比的能力以优化流程和提高效率,但在复杂和高风险的决策场景中,人类判断依然至关重要。应根据AI系统决策的关键性和复杂性,合理考虑人类干预的程度,包括“人机分层”决策的不同形式。

负责任的AI最佳实践:促进负责任和可信赖的AI系统 云企业战略博客

识别新机制和技术以减轻偏见并促进透明性

4 减轻偏见

龙猫机场

由于生成性AI模型是基于大量数据进行训练的,因此在基础模型或训练数据中引入的偏见可能会被放大并在生成输出中延续,从而导致不公正的实施、固化刻板印象,并限制多样性和代表性。偏见的产生往往源于偏向性训练数据或样本数量差异。

为了减轻AI中的偏见,组织应采取双重措施:优先使用多样化和代表性的数据进行AI模型训练,同时在AI系统的开发和部署过程中实施偏见减轻技术。

5 促进透明度和可解释性

生成性AI模型可能非常复杂,理解模型是如何得出某个输出的过程并不容易。你应该考虑何时需告知最终用户他们正在使用生成性AI,同样也需要考虑如何解释生成性AI模型得出输出的过程。

将关注点放在促进模型开发和部署相关流程的机制上,包括模型架构、输入数据摘要、训练过程和决策机制。使用可解释的算法和技术,比如决策树或规则基础系统,增强对模型工作原理的理解。

6 持续测试

为了确保负责任AI计划的有效性,持续进行测试和评估是必要的。这些测试不仅包括模型本身,还应包括使用的训练数据。在评估负责任的AI实践时,应考虑衡量不同人口群体结果差异或偏见的指标,同时通过调查、反馈机制或用户体验评估来评估用户对AI系统的满意度和信任程度。

引入关键的保障措施,最小化风险并保护隐私

7 纳入隐私考量

生成性AI依赖于大数据集来训练模型,因此在处理个人数据时应遵循最佳实践,包括训练过程中的数据处理和匿名化技术,以帮助降低风险。应关注适用的隐私法律和法规,包括数据收集、处理和使用的限制,并将隐私考量纳入任何AI治理框架。

8 确定具体应用案例

虽然可能会有广泛使用生成性AI的诱惑,但我建议AWS客户定义关注特定业务需求的高价值应用案例。具体应用场景能够提高责任和所有权的清晰度,促进透明度,并简化风险评估与缓解。

9 保护和尊重知识产权

生成性AI的崛起引发复杂的知识产权IP挑战,例如输入、输出和模型本身的版权以及AI生成内容的所有权。生成性AI模型的自主性模糊了传统创作和所有权的界限,因此需要谨慎考虑IP法律框架,以促进输入和输出的合理使用。

保护用于AI系统的专有算法、技术或流程作为商业机密至关重要,并需要健全的安全措施以防止机密信息的未授权访问或披露。

结论

采取负责任的措施构建AI是发挥AI潜力的关键,同时促进负责任和公平的结果。高管们有机会引领组织进入下一个AI创新的十年,并推动安全、可信赖的AI。通过遵循透明度、公平性、问责制和隐私原则,解决偏见问题,组织可以充分利用生成性AI的潜力,同时建立信任、促进社会利益,并降低与AI系统相关的风险。

标签 AI 人工智能 变革领导 文化 数字创新 多样性 治理 创新 领导力 人 安全性

Tom Godden

Tom Godden是Amazon Web ServicesAWS的企业战略家和推广者。在加入AWS之前,Tom曾担任Foundation Medicine的首席信息官,帮助构建全球领先的FDA监管癌症基因组诊断、研究和患者结果平台,以改善结果并为下一代精准医学提供信息。此之前,Tom在Wolters Kluwer担任多个高级技术领导职务,拥有超过17年的医疗保健和生命科学行业经验。他拥有亚利桑那州立大学的学士学位。