OpenAI首次公开前沿大模型安全:基础架构、保护措施等

AI最新资讯3个月前发布 tree
29 0 0

今日应用


今日话题


OpenAI首次公开前沿大模型安全:基础架构、保护措施等
OpenAI首次公开前沿大模型安全:基础架构、保护措施等
 

重点标签 AIGC社区大语言模型安全策略技术借鉴敏感数据保护

文章摘要


AIGC开放社区近日对OpenAI公开的大模型安全策略进行了深入解读。6月6日,OpenAI在其官网上首次系统性地公布了大模型开发安全方面的高级细节,包括基础架构、保护措施、敏感数据存储和开发人员访问管理等关键信息。这些信息不仅让外界对OpenAI模型的开发流程有了更深入的了解,也为开发者研究前沿大模型提供了宝贵的技术借鉴

基础研究架构方面,OpenAI的技术架构建立在微软Azure云服务之上,并得到Kubernetes的辅助。其身份基础是Azure Entra ID,该服务与内部身份验证和授权框架及控制集成,提供基于风险的验证功能,有助于识别和阻止潜在安全威胁。

Kubernetes安全方法上,OpenAI使用基于角色的访问控制(RBAC)策略,遵循最小权限原则,确保研究工作负载的安全。网络策略定义了工作负载与外部服务的通信方式,采用“默认拒绝”策略,并明确允许授权的外部通信路径。

对于风险较高的任务,OpenAI采用gVisor沙箱环境,提供额外隔离的容器运行环境,确保安全性和工作负载的高效管理。

敏感数据保护策略上,OpenAI使用密钥管理服务来存储和管理敏感数据,并采用基于角色的访问控制限制数据访问。此外,OpenAI建立了名为AccessManager的服务,作为管理内部授权和实现最小权限授权的可扩展机制。AccessManager策略可以根据资源定制,确保授权人员在适当的监督下做出访问敏感资源的决定。

模型权重保护方面,OpenAI采取了多方批准、授权的措施,研究模型权重的存储资源专用链接到OpenAI环境中,并通过Azure云进行身份验证和授权。此外,研究环境使用网络控制,仅允许出口流量流向特定的预定义互联网目标。

模型审核与测试方面,OpenAI通过内部和外部“安全红队”模拟恶意使用方,测试研究环境的安全控制。同时,OpenAI也在探索研究环境的合规制度,评估现有的安全标准和专门用于保护AI技术的自定义控制措施。

OpenAI频繁公布大模型安全的原因,主要是因为其面临的安全压力巨大。最近几个月,OpenAI的安全负责人相继辞职,且有员工在社交平台公开吐槽OpenAI不重视产品安全。此外,11名OpenAI现役和前员工发布了一封公开联名信,警告前沿AI模型可能带来的风险,并呼吁全球参与大模型的政府架构、大型企业、科研人员制定安全、可持续的监督条例和规则。

联名信中提出的4项原则包括:不签订或执行禁止AI模型问题的协议,为员工提供可核实的匿名程序,支持公开批评的文化,以及不对公开分享风险相关机密信息的员工进行报复。这些原则旨在确保AI模型的安全和可持续发展。

文章来源


原文地址: 点我阅读全文
原文作者: AIGC开放社区

© 版权声明

相关文章

暂无评论

暂无评论...