DeepSeek Coder
https://gyazo.com/1aacc4477a4759d260fd70a6eccad664
https://www.deepseek.com/HP
https://github.com/deepseek-ai/deepseek-coder/deepseek-ai/DeepSeek-Coder
https://huggingface.co/deepseek-ai/deepseek-coder-1.3b-instructdeepseek-ai/deepseek-coder-1.3b-instruct
https://huggingface.co/deepseek-ai/deepseek-coder-6.7b-basedeepseek-ai/deepseek-coder-6.7b-base
https://huggingface.co/deepseek-ai/deepseek-coder-6.7b-instructdeepseek-ai/deepseek-coder-6.7b-instruct
https://huggingface.co/deepseek-ai/deepseek-coder-7b-base-v1.5deepseek-ai/deepseek-coder-7b-base-v1.5
https://huggingface.co/deepseek-ai/deepseek-coder-7b-instruct-v1.5deepseek-ai/deepseek-coder-7b-instruct-v1.5
https://huggingface.co/deepseek-ai/deepseek-coder-33b-instructdeepseek-ai/deepseek-coder-33b-instruct
https://huggingface.co/spaces/deepseek-ai/deepseek-coder-33b-instructdeepseek-ai/deepseek-coder-33b-instruct
DeepSeek Coderは、英語と中国語の87%のコードと13%の自然言語の両方で訓練された一連のコード言語モデルで構成され、各モデルは2Tトークンで事前訓練されています。
https://gyazo.com/84727953e28fd3dd3493fdb3427206fahttps://gyazo.com/dfddbe29c2488b64614790eef9712076
GPT-4のHumanevalデータがPhind-CodeLlama-34Bと違うから比較できない...wogikaze.icon
Code_LLM
#DeepSeek_AI