GPT3
#自然言語処理
概要
gptの原理
https://gigazine.net/news/20200729-how-gpt-3-work/
gpt3が誰でも使用できようになったっぽい?
https://gigazine.net/news/20211119-openai-api-available/
/book-everything/GPT-3 完全初心者への徹底解説
日本語GPT3
japanese-gpt-1b
rinna社がgpt3に日本語を再学習させたモデル
https://huggingface.co/rinna/japanese-gpt-1b
世界で開発が進む大規模言語モデルとは(後編)
性能は約14 perplexityを達成しています。
※14 perplexityとは、日本語GPT言語モデルが次の単語を予測するときに、単語候補の数を14に絞れる性能を意味します。
利用者の目的に沿った多様なタスク(ドメインに特化した文章生成、分類、翻訳など)を、テキストプロンプトやファインチューニングにより実現できる