OpenAI宣布启动下一代前沿模型训练,同时成立新的安全顾问委员会,所有成员均为内部人员

OpenAI(chatgpt)宣布成立一个安全顾问委员会,负责监督公司项目和运营中的重要安全和安全决策。该委员会由内部成员组成,包括董事Bret Taylor(主席)、Adam D’Angelo、Nicole Seligman和Sam Altman(首席执行官)。该委员会的首要任务是在未来90天内评估和进一步发展OpenAI(chatgpt)的流程和保障措施,并向全董事会提出建议。

成员还包括OpenAI(chatgpt)的技术与政策专家Aleksander Madry、Lilian Weng、John Schulman、Matt Knight和Jakub Pachocki。公司还将咨询其他安全、安全和技术专家,如前网络安全官员Rob Joyce和John Carlin,以支持这项工作。

过去几个月,OpenAI(chatgpt)的一些安全团队成员离职,其中一些人对公司在AI安全方面的优先级下降表示担忧。这些人包括Daniel Kokotajlo、Ilya Sutskever、Jan Leike和Gretchen Krueger。一些离职人员指责公司在推出AI驱动产品时牺牲了安全性能,呼吁提高问责制和透明度。

同时,OpenAI宣布已经开始训练下一代前沿模型,以期超越目前的GPT-4大模型。公司表示,这些系统将使OpenAI在通往人工通用智能(AGI)的道路上达到更高的能力水平。公司计划明年公开发布这些模型,但在此之前需要数月或数年的训练和微调。

随着OpenAI构建的AI越来越接近人类智慧的水平,公司在通用人工智能方面的表述也变得更加谨慎。公司的使命是构建可以做到“当前人类认知水平”任务的通用智能。

OpenAI成立的安全顾问委OpenAI成立的安全顾问委员OpenAI成立安全顾问委员会,负责监督关键安全决策,全由内部成员组成。同时,公司开始训练下一代前沿模型,以期超越GPT-4。公司使命是构建能够达到当前人类认知水平的通用智能。