7月9日消息,据媒体报道,OpenAI近期全面升级其安全体系,以应对企业间谍活动风险。此次升级的核心举措之一是推出“信息隔离”政策,旨在严格限制员工对敏感算法和新产品的访问权限。
例如,在开发o1模型期间,OpenAI规定只有经过严格审查并获得相应权限的团队成员,才可在公共办公区域讨论相关细节。
同时,公司还采取了多项物理与网络安全强化措施:将核心专有技术存储在隔离的离线计算机系统中;在办公区域部署生物识别门禁(如指纹识别);并实施“默认拒绝”的互联网接入政策,所有外部连接均需获得明确授权。报道还指出,OpenAI已显著提升了数据中心的物理安全等级,并大幅扩充了网络安全团队规模。
分析认为,这些举措直接反映了业界对外国对手窃取OpenAI知识产权的普遍担忧。然而,考虑到美国人工智能领域日益激烈的人才争夺战,以及公司内部近期频发的信息泄露事件(如CEO萨姆·奥特曼的内部发言外泄),OpenAI此次安全升级也意在解决其面临的内部安全隐患。
文章来源:
快科技
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!