Anthropicは2021年に、OpenAIの元メンバーが中核となって創業しています(Dario/Daniela Amodei、Jared Kaplan、Jack Clark、Ben Mannなど)。ウィキペディア
つまり「元OpenAIが多い」のは偶然ではなく、組織の成り立ちそのものです。
Anthropic側は、OpenAIが商用化とプロダクトの速度を上げる方向へ進む中で、
「安全性を最優先する設計思想」を別会社として実現しようとした、という説明が一貫しています。
Amodei本人も「Microsoftとの取引が嫌で辞めた、というのは誤り。ビジョンの違いで、自分のビジョンを実現するために独立した」という趣旨を述べています。Inc.com
報道ベースでも「OpenAIが速すぎる方向に進むことへの懸念」が創業の背景として語られます。アーステクニカ
要するに、“速度で勝つOpenAI”と、“安全性で勝つAnthropic”の戦略分化が起きた、ということです。
Anthropicは安全性を単なるスローガンではなく、手法・研究として前面に出しています。代表例がConstitutional AIで、AIが従う原則(憲法)を明示し、学習・調整の枠組みに組み込む発想です。Anthropic+1
この方針は、OpenAIで安全性・アラインメントに強く関与していた人材にとって、
**「自分の専門性が組織の中心に置かれる」**環境になりやすい。
スタートアップにおける採用は、実務上かなりの部分が
以前の同僚
同じ研究コミュニティ
共著関係
で決まります。
Anthropicの創業コアがOpenAI出身だと、優秀層にとっては
文化が想像しやすい
スキル互換性が高い
共同研究の延長で移れる
という形で移籍障壁が下がります。結果として同窓会効果が生まれます。
直近でも、OpenAIの安全性・アラインメント周辺の離職が報道され、Anthropicへ移ったケースが取り上げられています(例:Jan Leikeなど)。Business Insider
この流れは、「安全性をやるならAnthropic」という市場でのポジショニングをさらに強化し、追加の人材流入を生みやすくします。
Anthropicに元OpenAI人材が多いのは、ひとことで言うと、
OpenAIの“速度・プロダクト中心”への進化に対し、同じ最先端で“安全性中心”を貫くためのスピンアウトとしてAnthropicが生まれ、その後も安全性人材の受け皿として吸引し続けているからです