RedPajama
ベンチマークで他の同じサイズのオープンモデルを上回るベースモデル
フューショットプロンプトに最適化されたモデルで、RedPajama-INCITE-Base-3B-v1ベースモデル上でGPT-JTと同じ式を使用してファインチューニングされました(ただし、HELMベンチマークと重複するすべてのデータセットを除外) 訓練の途中で約8000億トークンを完了し、品質が訓練中に改善するにつれ、RedPajama 7Bの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたチャットモデルの初期プレビュー版
RedPajama-INCITE-Base-7B-previewで訓練されたフューショットプロンプト用に設計されたモデルの初期プレビュー版
https://images.squarespace-cdn.com/content/v1/6358bea282189a0adf57fe16/f8b07fd1-d7b8-4729-94b8-364dcc47890a/RedPajama.png?format=1000w
完全オープンソースなLLaMaの製作を目指すプロジェクト LLaMaは研究目的のみ使用可