在 AWS 负责任地构建人工智能
生成式人工智能的快速发展带来了前景广阔的新创新,同时也带来了新的挑战。在 AWS,我们致力于以负责任的方式开发人工智能,采用以人为本的方法,优先考虑教育、科学和我们的客户,在端到端人工智能生命周期内集成负责任的人工智能。
负责任的人工智能的核心维度
公平
考虑对不同利益相关者群体的影响
可解释性
了解和评估系统输出
隐私与安全性
适当地获取、使用和保护数据和模型
安全
防止有害的系统输出和滥用
可控性
拥有监控和引导 AI 系统行为的机制
真实性和稳健性
即使具有意外或对抗性输入,也能实现正确的系统输出
治理
将最佳实践融入人工智能供应链,包括提供商和部署者
透明度
使利益相关者能够在与人工智能系统互动时做出明智的选择
负责任的人工智能的核心维度
公平
考虑对不同利益相关者群体的影响
可解释性
了解和评估系统输出
隐私与安全性
适当地获取、使用和保护数据和模型
安全
防止有害的系统输出和滥用
可控性
拥有监控和引导 AI 系统行为的机制
真实性和稳健性
即使具有意外或对抗性输入,也能实现正确的系统输出
治理
将最佳实践融入人工智能供应链,包括提供商和部署者
透明度
使利益相关者能够在与人工智能系统互动时做出明智的选择
服务和工具
AWS 提供各种服务和工具,帮助您负责任地设计、构建和运行人工智能系统。
在生成式人工智能中实施安全措施
Amazon Bedrock 护栏可帮助您实施针对自己的生成式人工智能应用程序量身定制的安全措施,并与您负责任的人工智能政策保持一致。除基础模型的原生保护之外,护栏还提供额外的可定制保护措施,从而提供业内最佳的安全保护,包括:
- 阻止高达 85% 的有害内容
- 过滤超过 75% 的 RAG 和汇总工作负载幻觉响应
- 支持客户在单个解决方案中自定义和应用安全性、隐私和真实性保护措施
基础模型(FM)评估
Amazon Bedrock 上的模型评估可帮助您根据准确性、耐用性和危害性等自定义指标,评估、比较和选择最适合其具体使用案例的基础模型。您也可以使用 Amazon SageMaker Clarify 和 fmeval 进行模型评估。
发现偏差并解释预测内容
偏差是指数据的不平衡或模型在不同组之间的表现差异。 在数据准备期间、模型训练完成后和部署的模型中,Amazon SageMaker Clarify 可通过检查指定的属性来检测可能存在的偏差,从而帮助您减少偏差。
了解模型的行为对于开发更准确的模型和做出更好的决策非常重要。Amazon SageMaker Clarify 可提高模型行为可见性,因此您可以为利益相关者提供透明度,为人类提供用于决策的信息,并跟踪模型是否按预期执行。
监控与人工审核
监控对于维护高质量的机器学习(ML)模型和确保准确预测非常重要。Amazon SageMaker Model Monitor 可自动检测部署的模型所生成的不准确预测,并向您发出警报。借助 Amazon SageMaker Ground Truth,您可以在机器学习生命周期中应用人工反馈,以提高模型的准确性和相关性。
改善治理
Amazon SageMaker 中的机器学习治理提供了专门构建的工具,可让您更严格地控制和更密切地了解机器学习模型,从而改善机器学习项目治理。您可以在一个地方轻松捕获和共享模型信息,随时了解模型行为,例如偏差。
AWS AI Service Cards
人工智能服务卡为您提供了一种集中的资源方式来查找有关我们人工智能服务和模型的预期使用案例、限制、负责任的人工智能设计选择以及性能优化最佳实践的信息,提升了透明度。