モデルの扱えるトークン数の比較
table:トークン数
モデル名 context windowの長さ 備考
GPT-3.5-turbo(gpt-3.5-turbo-instruct) 4096 LM Studioのデフォルトコンテキスト長でもある Source
当初256kという記載があったが40万に修正された。256kと報じているメディアもある基素.icon
Claudeファミリー
今って、どれぐらいの情報を一度に扱えるんだっけ?基素.icon
こっちは動画も扱える
1 時間の動画、11 時間の音声、30,000 行以上のコードベース、70 万以上の単語など、膨大な量の情報を一度に処理することが可能となります。
内部的には1000万tokenできているらしいから、そうすると30万行のコードベースか
後2桁増やして10000万tokenぐらいになると、多くのサービスのコードがまるまる入れられそう
複雑なChromiumのコードは4000万行あるからこれでもまるまるは無理
一時みんなコンテキスト長ばっかり競ってたけど最近あんまり注目されなくなったなnomadoor.icon
ただしハルシネーションがひどいという研究がどっかにあった気がする
それだと実用できないな基素.icon
奇しくも2月14日に1MトークンでハルシネーションなしLLMが出ていた
LLMじゃないなこれ、しっかり論文読みます
ローカルLLMだと、VRAMの都合で4096に設定してる人がまだ多いイメージbsahd.icon