Grok
眠れないからおすすめ聞いてみたら壊れちゃった🥲
もうこれがホラーだよ🤡🔪
https://pbs.twimg.com/media/GM_uZkoaQAERDYo.png
Twitterの新機能、精度良すぎて「前世バレ」するんだがwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwwww
https://pbs.twimg.com/media/GNBeG3caEAAbjYY.png
https://pbs.twimg.com/media/GNBqEjdawAAikMd.jpg
Twitterの生成AI
xAIを発表した後、私たちは330億のパラメータを持つプロトタイプLLM(Grok-0)を訓練しました。この初期のモデルは、標準的なLMベンチマークでLLA 2(70B)機能にアプローチしますが、トレーニングリソースの半分しか使用していません。過去2ヶ月間で、はるかに強力な最先端の言語モデルであるGrok-1に至るまで、推論とコーディング能力を大幅に改善し、HumanEvalコーディングタスクで63.2%、MMLUで73%を達成しました。
GPT-4より現時点での応答の洗練度は低い
これらのベンチマークでは、Grok-1は強力な結果を示し、ChatGPT-3.5やInflection-1を含むコンピューティングクラスの他のすべてのモデルを上回りました。これは、GPT-4のようなかなり大量のトレーニングデータと計算リソースで訓練されたモデルによってのみ追い越されます。
Grok(グロク)の由来は、ロバート・A・ハインラインが1961年のSF小説「異星の客」で用いた造語。火星語で、理解する、認識するという意味ということになっている。