• About Cosense
  • Help
  • Log in
work4ai
MosaicML
Related
  • Sort by
  • Related
  • Modified
  • Created
  • Last visited
  • Most linked
  • Page rank
  • Title
  • Links
  • Stable Diffusion 2を0から作るコストは16万ドル
  • MPT-30B
    [. https://huggingface.co/mosaicml/mpt-30b]モデル1Tトークンの英語テキストとコードで学習ライセンス[Apache 2.0]ファインチューニングモデル
  • MPT
    MosaicML Pretrained Transformer[MosaicML]開発の[LLM]シリーズ派生モデル[japanese-mpt-7b]
  • MPT-7B
    [. https://www.mosaicml.com/blog/mpt-7b] Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs[. https://github.com/mosaicml/llm-foundry] MPT/モデルリンク[. https://huggingface.co/spaces/mosaicml/mpt-7b-instruct] Demo
  • LLM Foundry
  • MosaicBERT
    [. https://www.mosaicml.com/blog/mosaicbert][. https://github.com/mosaicml/examples/tree/main/examples/bert][. https://huggingface.co/mosaicml/mosaic-bert-base]>このブログでは、最適化された MosaicBERT アーキテクチャを紹介し、20 ドルで [MosaicML] プラットフォーム上で高品質の [BERT] モデルをゼロから事前トレーニングする方法を示します。これにより、研究者やエンジニアが、既存の汎用モデルを微調整するだけでなく、ドメイン固有のデータで独自のモデルを事前トレーニングすることに自信を持つようになることを願っています。
  • Created by ノマ扉ノマ扉
  • Updated by ノマ扉ノマ扉
  • Views: 1
  • Page rank: 0
  • Copy link
  • Copy readable link
MosaicML