简化 AWS 审计管理中的生成性 AI 采用与合规路径
关键要点
随着组织越来越多地利用生成性 AI 来提升效率并增强竞争优势,需建立监测和评估 AI 服务使用的机制。AWS 开发了生成性 AI 最佳实践框架,提供评估与采用生成性 AI 技术的结构化方法,涵盖战略对齐、治理、风险评估以及安全与运营最佳实践。框架包括四个核心支柱,帮助组织在实施生成性 AI 工作负载时进行合规审计。随着组织越来越多地利用生成性 AI 技术来提升业务过程、提高效率并在竞争激烈的商业环境中获得优势,如何有效监测和评估 AI 服务的使用变得尤为重要。这也促使组织寻求可靠的机制来保障合规。
为了帮助您在采用生成性 AI 技术的过程中,并主动测量生成性 AI 实施的效果,AWS 开发了AWS Audit Manager 生成性 AI 最佳实践框架。该框架为评估和采用生成性 AI 技术提供了结构化的方法,涉及战略对齐、治理、风险评估,以及安全和运营的最佳实践。在实施生成性 AI 工作负载时,您可以在AWS Audit Manager 中利用此框架,通过自动证据收集和定制的评估报告,实施和监测现有工作负载。
在本文中,我们将探讨 AWS Audit Manager 生成性 AI 最佳实践框架及其在您生成性 AI 旅程中的作用。我们将强调在部署生成性 AI 工作负载时需优先考虑的关键因素,并讨论该框架如何利用 Audit Manager 促进对生成性 AI 特定控制措施的审计与合规。
开始生成性 AI 旅程
在为组织引入生成性 AI 做准备时,一个重要的考虑因素是确保风险管理策略与健全的减轻措施相对齐。潜在风险包括:
风险类型描述数据质量、可靠性与偏见用于训练模型的源数据质量差可能导致不一致、不准确或偏见的输出,这将对组织造成重大财务和监管影响。模型可解释性与透明度很多生成性 AI 模型的黑箱特性使得我们难以理解其输出或决策的具体原因。数据隐私与安全生成性 AI 模型训练所用的大量数据可能无意中包含敏感或个人信息。
AWS 鼓励组织负责任地使用这项技术,同时帮助它们对齐最佳实践。作为建立全面的生成性 AI 风险管理策略的一部分,AWS 构建了AWS Audit Manager 生成性 AI 最佳实践框架,该框架与Amazon Bedrock和Amazon SageMaker 在 AWS Audit Manager 中相辅相成。
Amazon Bedrock 是一种可管理的服务,可以帮助您创建、管理和扩展机器学习ML和 AI 服务,同时确保遵循安全和合规要求。Amazon SageMaker 是一种全托管的 ML 服务,可以构建、训练和部署 ML 模型,以满足深度定制和模型微调的广泛用例。
使用此框架,您可以利用更负责任、伦理和高效的生成性 AI 模型部署控制,以满足审计和合规的需求。
该框架分为以下四个支柱:
数据治理: 数据为生成性 AI 模型的基础,训练数据的质量与多样性会显著影响模型的表现与输出。数据治理支柱专注于促进数据管理过程,例如数据来源、数据质量、数据隐私和数据偏见。模型开发: 该支柱关注于生成性 AI 模型的负责任开发与测试,涵盖模型架构选择、模型训练和模型评估等方面。模型部署: 此支柱解决在生产环境中部署生成性 AI 模型带来的挑战,包括模型部署策略、基础设施考虑和访问控制等方面。监测与监督: 此支柱关注生成性 AI 模型在生产环境中的持续监测与治理,涵盖模型性能监测和事件响应计划等方面。您还可以利用Amazon Bedrock Guardrails 在基础模型FMs内置的保护措施上提供额外控制,从而帮助提供与组织政策和原则相符的相关和安全的用户体验。
每个组织的生成性 AI 旅程都是独特的,受行业特定法规、风险偏好和生成性 AI 部署规模等因素的影响。通过将框架与 Amazon Bedrock 或 Amazon SageMaker 结合起来,您可以根据组织的独特需求自定义控制,将生成性 AI 部署与特定的风险管理策略对齐。这种定制化对高度监管行业例如金融部门尤其有价值。
例如,您可以将不准确输出的风险映射到与数据质量和模型验证相关的控制上。同样,您可以将数据安全风险映射到与访问管理和加密相关的控制上。
让我们考虑一个示例,使用这些风险的一个子集来理解如何进行映射。一家金融服务公司决定使用生成性 AI 模型开发一个聊天机器人,能够理解复杂的客户询问并为其客户门户提供准确并个性化的响应。尽管聊天机器人可以极大地提升客户体验和运营效率,但它们也引入了需要理解和测量的风险,以便您可以制定相应的减轻策略。
该金融组织内部审计职能中的审计员希望利用 AWS Audit Manager 生成性 AI 最佳实践框架,评估与以下样本风险相关的合规性:
责任: 验证聊天机器人遵循伦理原则,例如公平和透明,避免对某些客户群体的偏见或歧视。准确: 核实聊天机器人答复的可靠性和准确性,尤其是在处理敏感财务信息或提供有关复杂金融产品的建议时。安全: 保护用于训练生成性 AI 模型的数据的完整性和安全性,防止未经授权的访问,并验证敏感的客户数据与用于训练的数据隔离。示例映射
以下是一个示例映射,说明如何利用框架在 Audit Manager 内部开发风险管理策略。根据您个人的控制目标和组织需求,您可以进一步自定义控制,同时证据收集可以实现自动化或手动定义。以下是示例映射:
责任:实现AI模型监控和可解释性的机制,以检测和减轻潜在的偏见或不公平的结果。RESPAI38:记录风险和容忍度:定义、记录并实施特定控制,以应对识别的风险和组织的风险容忍度。RESPAI39:制定AI RACI:明确定义组织角色和责任、沟通线路及控制权,以应对识别的风险。确保这种映射、测量和管理生成性 AI 风险的过程对组织中的个人和团队清晰可见。RESPAI313:持续风险监测:定期进行回顾,检查政策和程序,以确定是否应考虑新风险,以及是否根据 AI 性能、事件和用户反馈处理当前风险。RESPAI315:伦理准则:制定并遵循生成性 AI 模型部署和使用的伦理准则。准确:实施健全的数据质量检查、模型验证流程和持续监测,确保生成性 AI 聊天机器人输出的准确性和可靠性。ACCUAI34:定期审计:进行定期审查,以评估模型的准确性,特别是在系统更新后或集成新数据源时。ACCUAI36:来源验证:确保数据来源可靠、可信,且数据质量高。ACCUAI314:数据质量来源:生成性 AI 的准确性在很大程度上依赖于其训练数据的质量。确保数据具有代表性、全面且没有偏见或错误。安全:实施稳健的访问控制、数据加密和安全监控措施,以保护生成性 AI 聊天机器人系统和训练数据。SECAI32:数据传输加密:为 AI 模型的输入和输出数据实现端到端加密,最低遵循行业标准。SECAI33:静态数据加密:对用于训练 AI 模型的数据和 AI 模型生成的元数据实施静态数据加密。注意: 这是一个可以通过AWS Config 作为基础数据源配置的控制示例,或根据控制范围自定义其他数据源。
SECAI37:最小特权:在授予访问生成性 AI 系统的权限时,记录、实施并执行最小特权原则。SECAI38:定期审核:记录、实施并执行用户对生成性 AI 系统的访问权限定期审核。注意: 这是一个基于每个组织定义的具体政策和程序,可以配置手动证据收集的控制示例。
一元加速器网址SECAI315:访问日志记录:要求并启用机制,允许用户请求访问生成性 AI 模型。确保访问请求进行正确的记录、审查和批准。结论
对于机构,特别是那些在高度监管行业内的机构,主动应对生成性 AI 相关的新发展至关重要。将AWS Audit Manager 生成性 AI 最佳实践框架 作为全面风险管理策略的一部分,将帮助您保持竞争优势和灵活性,同时以负责任的方式采用生成性 AI。
框架所提供的指导结合 Audit Manager、Amazon Bedrock 和 SageMaker 的能力,帮助您建立安全和受控的生成性 AI 实施环境,自动化证据收集和风险评估,并监测及减轻潜在风险。通过在遵循最佳实践的前提下,充分利用生成性 AI 的潜力,您可以使您的组织站在创新的前沿,同时维护利益相关者和客户的信任与信心。
如对本文有任何反馈,请在评论部分提交。如果有关于本文的疑问,请联系 AWS 支持。
Kurt KumarKurt 是 AWS 专业服务的安全顾问,热衷于帮助客户实现安全环境。他在审计、风险和合规功能方面拥有超过 14 年的安全保障经验,目前持有 CISA、CISSP、Associate CCISO、AWS Security Specialty、AWS Certified AI Practitioner 和 AWS SysOps Administrator Associate 认证。工作之余,他喜欢观看一级方程式比赛和旅行。
标签 AWS Audit Manager 管理工具 安全博客
发表评论