米OpenAIのグレッグ・ブロックマン社長は5月18日(現地時間)、前日にヤン・ライケ氏が退社報告の中で同社がAIの安全性を軽視していると警鐘を鳴らしたことについて説明する長文ポストを、サム・アルトマンCEOとの共同署名付きでXで公開した。 ライケ氏の退職により生じた疑問への対応として、OpenAIの全体的な戦略について説明するとしている。 ライケ氏は、人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームの共同トップだった(もう1人のトップだったチーフサイエンティストのイリヤ・サツケバー氏は14日に退社している)が、OpenAIの幹部チームが「安全性を輝かしい製品の開発より後回しに」しており、その方針に同意できなかったため退社すると説明した。 ブロックマン氏は長文ポストでOpenAIによるAGI対策として