モデルの扱えるトークン数の比較
table:トークン数
モデル名 context windowの長さ 備考
Source
Claude 3 Opusも200000でいいんだよね...?基素.icon
All Claude 3 models support vision and 200,000 token context windows.
今って、どれぐらいの情報を一度に扱えるんだっけ?基素.icon
こっちは動画も扱える
1 時間の動画、11 時間の音声、30,000 行以上のコードベース、70 万以上の単語など、膨大な量の情報を一度に処理することが可能となります。
内部的には1000万tokenできているらしいから、そうすると30万行のコードベースか
後2桁増やして10000万tokenぐらいになると、多くのサービスのコードがまるまる入れられそう
複雑なChromiumのコードは4000万行あるからこれでもまるまるは無理
一時みんなコンテキスト長ばっかり競ってたけど最近あんまり注目されなくなったなnomadoor.icon
ただしハルシネーションがひどいという研究がどっかにあった気がする
それだと実用できないな基素.icon
奇しくも2月14日に1MトークンでハルシネーションなしLLMが出ていた
LLMじゃないなこれ、しっかり論文読みます