Openai大大减少了用于对其AI模型的安全测试的时间,引发了人们对与新模型快速释放相关的潜在风险和危害的担忧。
八个人,无论是OpenAI还是第三方测试人员,他们都透露,他们现在有“几天”来完成对新型号的评估,这一过程以前花费了“几个月”。测试时间的这种急剧减少归因于Openai希望保持竞争优势的愿望,尤其是在面对来自中国AI Ai Startup DeepSeek等公司开发的开放权重模型的竞争中。
评估对于识别模型风险和危害至关重要,例如越狱的模型提供创建生物武器的说明。为了进行比较,消息人士指出,OpenAI给了他们六个月的时间在发布之前审查GPT-4,他们仅在两个月后才发现有关功能。据报道,OpenAI新型号O3的当前测试过程并不那么透彻,并且缺乏适当地捕捉和减轻风险的必要时间和资源。
目前正在测试O3的完整版本的一个人将这种转变描述为“鲁ck”和“灾难的秘诀”。有传言称Openai将于下周发布O3,消息人士称,测试时间表不到一周。 OpenAI安全系统主管Johannes Heidecke声称,该公司“在我们移动的速度和彻底的范围内都有良好的平衡。”但是,测试人员和现场的专家在减少的测试时间以及与之相关的潜在风险时表示警报。
OpenAI测试时间表的转变强调了AI模型领域的政府法规。尽管与拜登政府签署了自愿协议,以与美国AI安全研究所进行例行测试,但这些协议的记录已在特朗普政府下删除。 Openai主张采取类似的安排,以避免在州划分的立法中浏览拼布。相比之下,《欧盟AI法案》将要求公司冒险测试其模型和记录结果。
麻省理工学院的AI研究人员Shayne Longpre这样的专家对与AI迅速发布有关的潜在风险表示担忧。 Longpre指出,随着AI系统获得更多访问数据流和软件工具的访问,AI系统中缺陷的表面积正在增长。他强调需要投资第三方独立研究人员,并提出诸如漏洞赏金,更广泛的红色访问权限以及测试人员发现的法律保护措施之类的措施,以改善AI的安全和保障。
随着AI系统变得越来越有能力,并以新的且经常出乎意料的方式使用,对彻底测试和评估的需求变得越来越重要。 Longpre强调的是,内部测试团队还不够,并且需要更广泛的用户,学者,记者和白帽黑客社区来涵盖这些系统现在服务的缺陷,专业知识和各种语言的表面。
Source: Openai匆忙进行AI测试,引起了安全问题





