About Cosense
Help
Log in
work4ai
M
o
s
a
i
c
M
L
Related
Sort by
Related
Modified
Created
Last visited
Most linked
Page rank
Title
Links
Stable Diffusion 2を0から作るコストは16万ドル
MPT-30B
[. https://huggingface.co/mosaicml/mpt-30b]モデル1Tトークンの英語テキストとコードで学習ライセンス[Apache 2.0]ファインチューニングモデル
MPT
MosaicML Pretrained Transformer[MosaicML]開発の[LLM]シリーズ派生モデル[japanese-mpt-7b]
MPT-7B
[. https://www.mosaicml.com/blog/mpt-7b] Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs[. https://github.com/mosaicml/llm-foundry] MPT/モデルリンク[. https://huggingface.co/spaces/mosaicml/mpt-7b-instruct] Demo
LLM Foundry
MosaicBERT
[. https://www.mosaicml.com/blog/mosaicbert][. https://github.com/mosaicml/examples/tree/main/examples/bert][. https://huggingface.co/mosaicml/mosaic-bert-base]>このブログでは、最適化された MosaicBERT アーキテクチャを紹介し、20 ドルで [MosaicML] プラットフォーム上で高品質の [BERT] モデルをゼロから事前トレーニングする方法を示します。これにより、研究者やエンジニアが、既存の汎用モデルを微調整するだけでなく、ドメイン固有のデータで独自のモデルを事前トレーニングすることに自信を持つようになることを願っています。
Created
a few seconds ago
by
ノマ扉
Updated
a few seconds ago
by
ノマ扉
Views: 1
Page rank: 0
Copy link
Copy readable link
MosaicML