GenWarp
LLaVAの手法を使用してllm-jp/llm-jp-1.3b-v1.0のような軽量なLLMをベースに画像に対応したマルチモーダルなLVLMを学習させるためのコードです。
Llama3にVision組み合わせる
MediaPipe × TouchDesigner
3Dのスケール問題
WebXR×Quest3
ぷらとーで映像作品作る
生成AI(ComfyUI)
Blender × GPT-4
LLMソフトウェアエンジニア
LLM PresenterつくれるくらいのUE力
memGPT×ローカルLLM
swallow-mx触る(優先度高)
bitnetなんでうまくいくん
プロンプト生成するためのプロンプトエンジニアリング
読む(パラメータ盗むやつ)
3D AI Agentは普通に参考になるのでは
voyagerとかもか?
HumoGen
メッチャきれいな画像はかせるプロンプト生成
dust3r
MLX
HFのクックブック見るとプロンプトチューニングのやり方とかも載っているのでGood
60行でGPT
LLMにいたる流れ
CG情報
awesome-audio-visualization
喫煙所、ゴミ箱マップ
読む(優先度高め)
タスク管理
ファインチューニング
Gemmaのファインチューニング
トークナイザ理解
NLPお勉強系
PRMLとかの輪読資料(松尾研)
Unity × Quest3のサワリ
TouchDesigner
✅日本語のデータセット(性格あり)
利用してみている
✅ローカルLLMはこうやって使うの
✅ゲームポーティングツールキットとかそこらへんのやつ
✅aici
✅Depth Anything
✅Unity
https://www.youtube.com/watch?v=7R7_xJGdY8k
ざっと流し見。カメラからみえる位置にオブジェクト(ビル)を実際にちょこちょこ配置していく様子とか
✅Wasm × 機械学習
✅Udemy:Blenderのやつやった。それ以外もやっていく
Unreal EngineとかTouch Designerとか触りたかったクリエイティブ系のやつガンガンやりまくるで良いかも
クリエイティブ系、AI系、3D系、Quest 3アプリ(これもUdemy)で良いのでは
✅みっどじゃーにーからの3d
✅3Dモーション生成
✅triposr × 家具
✅Claude使う
✅:Dockerオルタナティブ
✅:SD turboを動かしてみる
✅:ChatDev触る
✅:iPhoneでローカルLLM(日本語)をある程度まともに動かす
llmfarmでrinna/nekomata
まず重すぎるのでiPhoneかっくかくになる
後生成できてもわけわからん日本語を吐く(何とか商店〜とか)
この現象calmとかと一緒。そもそもllamafarmが日本語相性良くないのでは?
llama.cpp動かしてみる
このときとはソースコードのバージョンがかなりアップデートされている
UI開くとcustom llm読み込むボタンがあるので押すだけ
実機デバッグ
XCodeアップデートしないとiOS17動かなかったのでアップデート
Bundle Identifierは既に登録されているので自分用に適当に末尾加える
Load Custom ModelでローカルのLLM読み込む方法はうまくいかなかった
ContentView.swiftに追加したいLLMを入れ込む
code:swift
DownloadButton(
llamaState: llamaState,
modelName: "ELYZA-japanese-Llama-2-7b (Q4_0, 3.9 GiB)",
filename: "ELYZA-japanese-Llama-2-7b-fast-instruct-q4_0.gguf"
)
ELYZA-japanese-Llama-2-7b-fast-instruct-gguf → アプリ落ちた。4GBが限界か?
TinyLlama → 意味わからん返答
これがよかった!
mlcやってみる
✅:WebGPU
✅:VPS / ボリュメトリックビデオ
✅:Wasmer JS SDK
イメージとしてWamerのRegistryができてそこにPythonとかがあったりする、それを読み込んでJSから利用できるし、自作をRegistryに突っ込んだりも可能
もちろん他にも色んな機能ある
これをやってみる
Rustを入れた(rustup)
手順通りにやるが、最後にcargo buildする前に下記が必要(記事中にも書いてあるが後ろに書いてある)
rustup target add wasm32-wasi
Wasm作れたが最後のWasmのインポートでうまく動かず一旦ペンディング
✅:NeRF / Gaussian Splatting
✅:iPhoneでローカルLLM
calm2-7B-chat-GGUF
この通りにやってみた。llama.cpp等を参考にしたllamafarm。iPhone上にてモデルをダウンロードし読み込ませる
まずはELYZA使ってみたが全然使い物にならず
次に上記calm2使ってみる
現実的な速度で生成するものの全然狙い通りの回答得られずやめた
ちなみにQ6は重すぎてアプリが落ちた
✅:StreamDiffusion
CUDA対応デバイスのみとのことで終了のお知らせ
✅:ローカルLLM
✅:WasmでローカルLLM
llama.cppと何が違うの?
これはllama.cppとかllamaとかに対してOpenAI互換のAPIを提供するアプリ
なのでllama-utilsをインタフェースにして叩けるようにしましたよって感じ
llama-utilsはWasmで動く
つまりは上記ブログはllama-utilsの紹介でもある
llama自体はgguf版を使っている。llama.cppとかでも使うやつ
wasmedge --dir .:. --nn-preload default:GGML:AUTO:llama-2-7b-chat-q5_k_m.gguf llama-chat.wasm
これで動いた。ただし返信末尾にエラー出る
Error: Backend Error: Unknown Wasi-NN Backend Error Code 100
https://scrapbox.io/files/6596191418d582002237824c.png
llama.cppを導入する
READMEに記載の通りリポジトリcloneしてmakeするのみ
デフォルトでGPU有効なので本当にmakeのみ
全ての流れはGitHubにかかれている
https://scrapbox.io/files/6596b9b0fda06a002344a553.png
動いた!本当にリアルタイムに動く。体感2秒毎くらいにテキストが吐き出される
✅:MLおさらいする
サラッと見た
サラッと見た
✅:家の積読(機械学習エンジニアのためのTransformers、コンピュータビジョンのための実践機械学習)
自作Transformer
✅:OSS LLM触る
✅:ELYZA-japanese-Llama-2-13b-fast-instruct-gguf
llama.cppで上記ELYZAを動かす
wgetはないのでcurl -LOで落とす
curl -LO https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-13b-fast-instruct-gguf/resolve/bd8556cccb46dda6250c112c680aa8c76e6e3000/ELYZA-japanese-Llama-2-13b-fast-instruct-q6_K.gguf
./main -m 'ELYZA-japanese-Llama-2-13b-fast-instruct-q6_K.gguf' -n 32 -p '富士山の高さは?'
https://scrapbox.io/files/6596c53ce327c500244e33c4.png