2024-04-12
Scrapboxを見る時間があるなら本を読め
今日の相場
https://gyazo.com/e5427c529bf3ea742a6e4c7a6a03caeb
小幅な値動き。決算シーズン
大局観
ドル円はもっと上がるか?
機関投資家は売っている?買っている?
木曜日に発表?
大きく上がった/下がった銘柄は?
年初来高値/安値
ANYCOLOR -4.29%
さくらインターネット上がってる
そんなにうまくいくだろうか?
今日の創作の進捗:なし
TODO
✅D払いで買う
D払い残高を住信SBIネット銀行からチャージできなくて不便
kyash使えな買った
確定申告の時、税務署の人に真顔で「どうやって生きてるんです?」
って言われたよ。
中間層の壊滅が進行してるので、こういう方たちが支えている業界の未来は構造的に暗いよなー。MAPPAとか京アニのように雇用する会社は生き残るだろうが、即戦力を市場から引っ張る企業は単価を上げざるを得ないだろう
Claude 3 Opus.icon現時点ではtext-generation-webuiでCommand R+モデルを直接使うのは難しいようです。主な理由は以下の通りです。
Command RアーキテクチャはLLaMAベースのモデルとは異なるため、標準のllama.cppローダーではサポートされていません。oobabooga/text-generation-webuiの開発ブランチでは最近Command R v01のサポートが追加されましたが、まだ安定して動作しない問題があるようです。 ただ、llama.cppの最新版ではCommand R+のサポートが追加されたばかりなので、近いうちにtext-generation-webuiでも安定して使えるようになるかもしれません。
Command R+のexl2量子化版をTransformersライブラリ経由で読み込もうとすると、tokenizer設定の競合でエラーが出ます。gibberishな出力しかできない問題も報告されています。
メモリ使用量の面でも、text-generation-webuiではCommand R+ 5.0bpw量子化版で9,000トークン程度のコンテキストしか使えないという指摘があります。
現状、Command RやR+を使うにはollamaやexllamav2などの専用のインターフェイスを使うのがよさそうです。 13:49 気持ちが悪くなってきた。お腹が減っている?
共同親権が話題になっている。LLMと会話すると両方からの問題点が議論できて有益だ ただし、これを現実と結びつける必要がある。これが難しい
裁判所が適切な判断ができないという指摘があるが、その裁判所が今の自分だ。賛成するべきか?反対するべきか?