言語モデルをトレーニングする方法は分散していくか?
public.icon
from オープンソースなAI研究
言語モデルをトレーニングする方法は分散していくか?
@yo_ehara: AIの学習の形態、産業革命そのもの説。BERTの前、word2vecの時代は、各々の研究室でコーパス入手からモデル作成までやってた(家内制手工業)。BERTが出てから、計算力が必要な事前学習モデルの作成・配布は大きな研究室(問屋)が行い、各々の研究室では事後学習する形に(問屋制家内工業) (続
@yo_ehara: そして、ChatGPTが出てから、基盤モデルが巨大すぎて大きな研究室でも持てなくなり、モデル本体は専門の1企業が持ち(工場)、個々の研究者がAPIを通じて基盤モデルを個々のタスクにチューニングするようになった(工場制手工業)。 (続
@yo_ehara: 今度は研究者同士が互いのドメイン知識を補完しあって基盤モデルのプロンプトチューニングをする分業(協業)の時代がやってくるのだろうか…?
https://t.co/gniqlDQpw7
個人的にはFederated Learningの文脈と、ChatGPTの学習済みモデルが検閲済みになっている問題は似ている?
PoWを基本としたFederated Learningは、"Decentralized AI "への唯一の道tkgshn.icon*3