生成的な基盤モデル
#GFMs
基盤モデル(foundation model)
基盤モデル(きばんモデル、foundation model) は、自己教師あり学習や半教師あり学習(英語: Semi-supervised learning)により膨大なデータで学習した大規模人工知能モデルで、 様々な下流タスクに適用することができる。 基盤モデルは、著名なチャットボットやその他のユーザ向け AI の動力源となるなど、AI システムの構築方法に大きな変革をもたらしてきた。The Stanford Institute for Human-Centered Artificial Intelligence (HAI) の Center for Research on Foundation Models (CRFM) がこの用語を広めた。
基盤モデルの初期の例は、Google の BERT や様々な初期の GPT 基盤モデル(特にOpenAIの「GPT-n」シリーズ)を含む事前訓練された大規模言語モデル(LLM)だった
chatGPT.iconにも聞いてみた
"Generative foundation model"(GFM)は、一般的な概念というよりは、このテキストの著者が特定の意図で用いている特有の表現かもしれません。私の知識データベースの更新は2021年までであり、それ以降の特定の技術的進歩や用語の変遷については把握していません。
ただし、このコンテキストでは、GFMはおそらく大規模なAIモデルを指しています。これらのモデルは「生成的」な機能を持つために訓練され、大量のデータを用いて新たなコンテンツを「生成」します。その結果、AIはユーザーの質問に答えたり、文章を生成したり、画像を描いたりする能力を持つようになります。
これらのモデルは、通常、非常に大量のデータを用いて訓練され、そのデータは可能な限り多様な情報をカバーするように選ばれます。これにより、モデルはあらゆる種類の問題に対応できるようになります。
このテキストにおける「基盤」という言葉は、これらのモデルがAIアプリケーションの基盤として使われることを示している可能性があります。つまり、GFMは一般的な問題解決能力を持ち、特定のアプリケーションに特化した機能を付け加えることで、様々な用途に使用することが可能というわけです。
ただし、特定のGFMやその具体的な適用については、具体的なコンテキストや詳細な情報が提供されるまで確定的な解釈を与えることは難しいです。