生成式AI的风头正劲,从深度学习到大规模语言模型(LLM),这一技术的飞速发展正在彻底改变各行各业。我们正站在一个人工智能的黄金时代,应用场景从日常生活到复杂的商业决策,生成式AI的影响无所不在。
然而,随着技术的不断进步,生成式AI带来的问题也日益复杂和严峻。DeepSeek-R1模型作为目前领先的生成式AI之一,尽管在处理大规模数据和生成自然语言方面表现出色,但它同样暴露了深层次的“幻觉”问题。
例如,在Vectara HHEMAI幻觉测试中,DeepSeek-R1的幻觉率为14.3%,远高于此前版本的3.9%。这种错误生成的问题,尤其是在生产环境中应用时,可能会导致不准确或有害的信息生成,进而影响企业的决策、用户体验,甚至破坏企业声誉。
更为复杂的是,幻觉问题仅仅是企业级AI部署中的一环。随着生成式AI在商业和社会各领域的广泛应用,企业级AI开始面临更大的安全挑战:对于企业级AI应用而言,安全性是一个系统工程。一个稳固的AI安全防护架构不仅需要考虑基础的安全防护,还需要在应用的每一个环节中融入深度防御策略。
笔者认为,企业级AI需要考虑三个层面的因素:一是基础的安全防护以实现加密、权限管理和合规等需求,二是需要预防并处理大模型输出输入中的有害内容风险及基础事实幻觉,第三则是在前两者的基础上逐步构建更深层次的深度防御体系。在这三个层面上,亚马逊云科技都提供了对应的服务和功能更新,以确保客户能够轻松部署企业级AI应用。
以DeepSeek为例,其R1版模型现在可通过Amazon Bedrock Marketplace或Amazon SageMaker JumpStart获取,并通过Amazon Bedrock自定义模型导入获取蒸馏版本的精简模型。然而,DeepSeek模型在生产环境中的部署与其他所有模型并无不同,仍然需要仔细考虑数据隐私要求,适当管理输出中的偏差,还需要强大的监控和控制机制。
具体来看,在基础安全防护方面,Amazon Bedrock为生成式AI模型的托管与运营提供了全面的支持。通过静态数据和传输中数据加密、细粒度的访问控制和强大的合规认证,确保了模型运行中的数据隐私与安全。
亚马逊云科技通过广泛的全平台安全和合规措施进一步增强这些功能:例如,Amazon KMS可用于对数据进行加密,Amazon IAM和Amazon VPC等服务可实现精细的身份与访问控制,保证只有授权的用户和应用可以访问敏感数据,网络安全则可以用亚马逊云科技的网络防火墙和端点保护服务。
此外,像漏洞扫描等服务和功能还能够防止潜在的安全风险,确保模型的稳定性和安全性。
在有害内容风险和基础事实幻觉生成方面,亚马逊云科技推出了Amazon Bedrock Guardrails安全防护栏功能,能够全面轻松地应对上述风险。Amazon Bedrock Guardrails为开发者提供了两种主要的使用方式:一种是在模型调用或对话式API中直接集成防护机制,实时处理输入和输出;另一种则是通过ApplyGuardrail API,允许开发者在不直接调用模型的情况下评估和过滤内容。通过这些灵活的方式,开发者可以根据具体的应用场景,定制化地设定安全防护策略,从而更好地管理生成式AI的输出内容,确保其符合企业的合规要求和道德标准。
Amazon Bedrock Guardrails提供的配置防护策略包括内容过滤、主题过滤、词汇过滤、敏感信息过滤等。开发者可以根据需要调节过滤强度,防止生成不当内容。例如,企业可以设置策略来屏蔽特定词汇,或限制某些主题的生成,防止有害内容的传播。此外,Guardrails还支持防止AI模型产生幻觉——即不准确或误导性信息的生成。尤其在医疗、法律等领域,确保生成的内容准确无误是至关重要的。
为了进一步解决生成式AI中的幻觉问题,Amazon Bedrock Guardrails引入了自动化推理检查功能。自动化推理通过运用数学逻辑方法验证生成内容的准确性,尤其适用于需要精确答案的场景。自动推理技术通过解析和验证生成结果的合理性,为客户提供了可审计的输出和清晰的推理过程,从而提升了模型的透明度。
“事实性错误通过人工不难发现,因为它是明确的对错问题。以前大模型缺乏可证明事实的逻辑,导致出现幻觉时难以纠正。但有了自动推理技术,就能够通过数学验证方式严密证明事实性错误是否会发生,从而有效改善幻觉问题。”亚马逊云科技大中华区产品部总经理陈晓建表示。
据了解,用户在设置好相关的亚马逊云科技账户和权限后,即可轻松开启Amazon Bedrock Guardrails以进行有害信息处理,例如,通过Amazon Bedrock自定义模型导入功能导入的DeepSeek-R1蒸馏模型,并为其创建一组包含各种过滤策略的安全护栏。针对由Amazon Bedrock和Amazon SageMaker导入的开放权重的蒸馏模型,亚马逊云科技建议为这些模型设置以下关键过滤器——提示词攻击、内容审查、主题限制和敏感信息保护。
第三层面是构建完整的深度防御策略。亚马逊云科技经常说“安全不是一蹴而就的”,深度防御是企业级AI的必经之路。
“2024年我们看到许多客户从思考阶段进入实践阶段,进行了大量场景试验。但是我觉得2025年肯定会发生一个变化,很多客户将从原型验证阶段转化为生产阶段,这是必经之路。届时客户需求将更加复杂,不仅是选择模型,还需要各种技术支持。”陈晓健强调,亚马逊云科技开发Amazon Bedrock的目的不仅是提供模型市场,更重要的是提供能让模型推理运行时所需的各种生产力工具和生产环境工具。
这其中自然包括更多的安全服务、最佳实践和解决方案。
需要注意的是,基于亚马逊云科技构建完整的深度防御策略则是一项系统工程,涵盖韧性的企业架构、全生命周期的安全设计、安全的云基础架构、经典的分层防御策略以及信任边界控制等多个方面。尽管生成式AI带来了一些新的安全和隐私挑战,但遵循诸如分层安全服务进行深度防御等基本的最佳安全实践,就能帮助企业抵御许多常见问题和不断演变的威胁。
对于用户而言,不仅可以当在生成式AI工作负载及整个企业架构中部署分层的亚马逊云科技安全服务,并关注数字供应链中的集成点,以保障云环境的安全,同时还可以利用Amazon SageMaker和Amazon Bedrock等AI/ML服务中提供的增强型安全和隐私功能,为其AI应用增添更多层面的强化安全和隐私控制。
从一开始就融入安全考量,将使利用生成式AI进行创新的过程更快、更容易且更具成本效益,同时简化合规流程。这将有助于为员工、客户、合作伙伴和监管机构,增强对生成式AI应用的控制、信心和可观测性。
写在最后
生成式AI技术的不断发展,企业面临的安全风险也在不断演变。在这场技术革新的浪潮中,亚马逊云科技通过其全面的安全防护策略,帮助企业构建了一个坚实的防线。这不仅使企业能够充分发挥AI技术的潜力,还确保了其应用能够在安全和合规的框架下健康运行。通过这一系列措施,企业能够在快速变化的AI生态中稳定前行,迎接更加智能化的未来。
“安全是构建业务的根基。我们认为安全性是企业文化的一部分,并非事后附加上去的。不能先推出产品而后再添加安全性。必须从一开始就予以落实。它体现在数据中心、芯片以及虚拟化堆栈与服务架构的的设计方式里。”亚马逊云科技CEO Matt Garman曾强调,万事皆以安全性为起始。在亚马逊云科技,安全性是众多客户放心将云工作负载托付给我们的原因之一。它是所有服务构建所依托的核心基础层。