7 月 26 日消息,2025 世界 AI 大会今日在上海开幕,图灵奖得主约书亚・本吉奥发表演讲称,前沿模型近期在规划和推理方面取得了显著进展。如果这样的趋势持续,AI 的规划推理能力有望在十年内达到人类的水平。
从演讲中获悉,如果缺乏坚实的防护措施,强大的 AI 系统可能会放大虚假信息,网络攻击和生物威胁等现有风险。更令人担忧的是,人类恐将失去对自我保护型智能体的控制,这些智能体的认知能力或将“很快超越人类”。
本吉奥认为,科学界仍有相当比例认为这种情况可能发生,就必须保持最高警惕。目前尚无科学验证方法确保 AI 可信且始终遵从人类意图。更糟糕的是,欺骗和自我保护行为在最强模型中似乎更加明显。“随着 AI 的智能水平不断提升,这才是真正令人担忧的地方,因为智能意味着权利。”
本吉奥表示,我们急需在技术和政策层面采取措施,以应对这些风险和其他潜在的问题。理性的政策应鼓励开发不具备危险能力的 AI 开源项目;同时,禁止其他情况下的开发,并对闭源模型实施充分的安全保障措施,包括网络安全和物理安全,确保其不易被犯罪分子、恐怖分子或流氓国家所利用。
文章来源:
IT之家
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!