llm-jp-13b
Instruction models
https://huggingface.co/llm-jp/llm-jp-13b-instruct-full-jaster-v1.0llm-jp-13b-instruct-full-jaster-v1.0
https://huggingface.co/llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0
https://huggingface.co/llm-jp/llm-jp-13b-instruct-full-dolly-oasst-v1.0llm-jp-13b-instruct-full-dolly-oasst-v1.0
https://huggingface.co/llm-jp/llm-jp-13b-instruct-lora-jaster-v1.0llm-jp-13b-instruct-lora-jaster-v1.0
https://huggingface.co/llm-jp/llm-jp-13b-instruct-lora-jaster-dolly-oasst-v1.0llm-jp-13b-instruct-lora-jaster-dolly-oasst-v1.0
https://huggingface.co/llm-jp/llm-jp-13b-instruct-lora-dolly-oasst-v1.0llm-jp-13b-instruct-lora-dolly-oasst-v1.0
Pre-trained models
https://huggingface.co/llm-jp/llm-jp-13b-v1.0llm-jp-13b-v1.0
https://huggingface.co/llm-jp/llm-jp-1.3b-v1.0llm-jp-1.3b-v1.0
llm-jp-evalで1位🥇
https://gyazo.com/cd65ca7d0b7a4aef76a46f5a8a07e4c3
https://www.nii.ac.jp/news/release/2023/1020.html130億パラメータの大規模言語モデル「LLM-jp-13B」を構築
~NII主宰LLM勉強会(LLM-jp)の初期の成果をアカデミアや産業界の研究開発に資するために公開~
今後、国立研究開発法人産業技術総合研究所(産総研)や国立大学法人 東京工業大学(東工大)とも協力して世界トップレベルの性能を持つLLMの構築を目標に研究開発を進めます。その第一歩として、産総研の計算資源であるAI橋渡しクラウド(ABCI)*4の利用により、より本格的な1750億パラメータ(GPT-3級)のLLMの構築に着手しました。
llm-jp-175B
License: Apache 2.0