7 月 8 日消息,据《金融时报》报道,OpenAI 近期全面升级了安全体系,以防范企业间谍活动。此次升级的安全措施包括“信息隔离”政策,旨在限制员工接触敏感算法和新产品。
例如,在 OpenAI 开发 o1 模型期间,只有通过审查且具备相应权限的团队成员,才可以在公共办公区讨论相关内容。
此外,OpenAI 还将专有技术隔离在离线计算机系统中,在办公区域实施生物识别门禁(包括指纹识别),并采取“默认拒绝”的互联网接入政策,要求所有外部连接必须获得明确许可。报道还称,OpenAI 已提升了数据中心的物理安全等级,并扩充了网络安全团队。
据悉,这些举措凸显了外界对外国对手试图窃取 OpenAI 知识产权的普遍担忧。不过,考虑到美国 AI 企业间的人才争夺战愈演愈烈,以及 CEO 萨姆・奥尔特曼(Sam Altman)内部发言泄露事件频发,OpenAI 或许也在试图解决其内部安全隐患。
文章来源:
IT之家
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!