OpenAIのスーパーアライメントチーム
https://scrapbox.io/files/66aaf2aa2f3e19001db54c17.png
https://openai.com/index/introducing-superalignment/
AGIの到来を見据えて、AIの暴走による人類への脅威を防ぐために、立てられた安全対策チーム
Ilya Sutskever
とJan Leikeがリーダー
研究員に、
Leopold Aschenbrenner
など
2023年7月に発足し、2024年5月に解散。
GPT-4o
のリリース翌日に、
Ilya Sutskever
が退社
わずか10ヶ月ほどで解消せざるをえなかったほど、機能不全に陥っていた
参考資料
https://wired.jp/article/openai-ilya-sutskever-ai-safety/
https://wired.jp/article/openai-superalignment-team-disbanded/
https://news.yahoo.co.jp/articles/d26783f671725f09191ef76c80c9b7443e4cccb9
https://x.com/johnschulman2/status/1820610863499509855