视频入口:点此下载观看

  5月21日消息,近日,OpenAI公司再次发生高层人事震动。继公司共同创始人Ilya Sutskever离职之后,另一名高管Jan Leike也在社交平台X上宣布了自己的离职。Leike此前担任OpenAI旗下重要的Superalignment(超级对齐)团队共同主管。

  Jan Leike在离职声明中坦言,近年来OpenAI在发展过程中逐渐忽视了内部文化和AI安全准则,转而过度追求推出引人注目的新产品。他对此表示担忧,并认为公司应该将更多的精力放在AI安全研究上。Leike透露,他当初选择加入OpenAI,正是因为看中该公司是进行AI安全研究的最佳场所。然而,现在领导层似乎已经将模型的安全性抛诸脑后,转而将盈利和计算资源的获取作为首要任务。

  据了解,OpenAI在2023年7月成立了Superalignment团队,旨在确保具备超级智能的AI系统能够遵循人类的意愿。当时,公司承诺在未来四年内投入20%的计算资源来保障AI模型的安全性。但遗憾的是,据彭博社报道,OpenAI目前已经解散了该团队。

  针对Leike的离职和批评,OpenAI的Greg Brockman和Sam Altman联名回应称,他们已经提高了对AI风险的认知,并承诺未来会不断加强安全工作,以应对每款新模型可能带来的利害关系。他们表示,OpenAI始终致力于确保AI技术的安全和可持续发展。

视频入口