OpenAI启动下一代前沿模型训练,同时成立全内部安全顾问委员会

OpenAI发布了一则公告,宣布成立了一个新的安全顾问委员会,该委员会的任务是监督与公司项目和运营相关的关键安全和安保决策。值得一提的是,该安全顾问委员会的成员全部由公司内部人员组成,包括董事Bret Taylor(主席)、Adam D’Angelo、Nicole Seligman和Sam Altman(首席执行官),而没有外部成员。该委员会将向全体董事会提供建议,涉及OpenAI项目和运营的重要安全和安保决策。

安全顾问委员会的首要任务是在未来90天内评估并进一步发展OpenAI(chatgpt)的流程和保障措施。90天后,该委员会将与全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和安全标准的方式,公开分享有关采纳建议的更新。

此外,OpenAI董事会表示,该公司的技术与政策专家,包括Aleksander Madry(准备状况负责人)、Lilian Weng(安全系统负责人)、John Schulman(对齐科学负责人)、Matt Knight(安全负责人)以及Jakub Pachocki(首席科学家),也将加入该委员会。

OpenAI(chatgpt)还将保留并咨询其他安全、安全和技术专家以支持这项工作,包括前网络安全官员Rob Joyce和John Carlin。

近几个月以来,OpenAI的技术团队中有多名安全方面的高层人员离职,其中一些人对OpenAI在AI安全方面的优先级下降表示担忧。前员工Daniel Kokotajlo在4月辞职,因为他对OpenAI在发布越来越强大的AI时的负责任行为失去了信心。此外,联合创始人兼前首席科学家Ilya Sutskever在与首席执行官Sam Altman的长期斗争后,于5月离职。

最近,前DeepMind研究员Jan Leike在OpenAI负责开发ChatGPT及其前身InstructGPT的过程中辞去了安全研究员职务,他在一系列帖子中表示,他认为OpenAI未能正确解决AI安全和安全问题。AI政策研究员Gretchen Krueger上周也离开了OpenAI,她呼吁公司提高问责制和透明度,并更加谨慎地使用其技术。

媒体报道称,自去年年底以来,至少有五名OpenAI最重视安全的员工要么辞职,要么被迫离开,其中包括前OpenAI董事会成员Helen Toner和Tasha McCauley。两人最近在媒体上撰文称,在Altman的领导下,他们相信OpenAI无法实现对自身追究责任。

这次安全顾问委员会的成立显示了OpenAI对于安全问题的重视,并希望通过内部专家的意见和建议来加强公司的安全措施和决策。

OpenAI宣布已经启动下一代前沿模型的训练,旨在超越目前的GPT-4大模型。该公司预计这些系统将使他们在通往人工通用智能(AGI)的道路上达到更高的能力水平。尽管OpenAI自豪地构建并发布了在能力和安全性方面处于行业领先地位的模型,但他们在这个重要时刻欢迎一场激烈的辩论。

回顾一下,OpenAI在2023年3月发布了GPT-4。这个模型令人印象深刻,仅凭总裁布洛克曼在笔记本上的草图,就能构建出一个真实的网站。这一幕让很多人开始相信“AI或许真的能改变些什么”。

自那以后,OpenAI围绕着GPT-4逐步推出了一系列文字、图片、音频和视频生成应用。就在两周前,公司刚刚发布了最新版本的GPT-4o,通过显著提高模型的交互速率,实现了像真人对话一样的“实时互动”。尽管GPT-4o在各方面都有所提升,但依然没有跳脱出GPT-4的能力范畴。

因此,外界对于“GPT-5”的期待一直很高。但根据OpenAI最新的表述,下一代大模型恐怕要到明年才能与公众见面。AI模型通常需要数月、乃至几年时间来训练,而在面向公众发布前,开发团队还需要进行数月的微调。

随着OpenAI构建的AI越来越接近人类智慧的水平,该公司在通用人工智能方面的表述也变得更加谨慎。

OpenAI全球事务副总裁Anna Makanju表示,OpenAI的使命是构建可以做到“当前人类认知水平”任务的通用智能。

早些年,Sam Altman曾表示,OpenAI的最终目标是构建比人类更加先进的“超级智能”,他还曾表示,自己有一半的时间是在构想如何打造“超级人工智能”。