ウェアラブルデバイスを活用して視覚情報のコンテキストを含めたAIとの協働作業を考える
from
https://twitter.com/koushisa/status/1635594098974531584
メタバース内でエンジニアリングするとして、そのメタバースの画面や端末、ポモドーロなどをテキスト化してLLMに食わせるとどうなるか
時間の使い方の意図や試行錯誤を言語化していれば、別にポモドーロでなくともよいが、あらゆる知的生産物のアウトプットに至るまでの思考の癖や見えづらい部分を客観視できるのではないか
知的生産行為の作業環境をメタバースにつくるというのがポイントか
ライフログを全て取るのは無理でも現実的なのかもしれない
標題のツイートは半年以上前のものだけど、最近なんでもとりあえずGyazoっておけば後で検索することができるというのを実感する中で、アイデアがコネクティングドットした。
具体的にはウェアラブルデバイスやMRで視覚のコンテキストをLLMsに渡す仕組みができると、何か面白い知的生産やAIとの協働ができそうだ
キーワード
非線形的な思考の連続性や思考のマリネ漬け
誰にもその人なりの思考の癖があり、また多くの人に共通する癖もある
知識の転移
アクティブラーニング
ヒューマンインタフェース
ウェアラブルデバイス
Rewind Pendant
Humane Ai Pin
AR
XREAL
MR
Visor
メタが示したビジョンは、VRとMRでリアルな人間とバーチャルなアバター(キャラクター)が一緒に仕事をする、空間を超えたコワーキング
ライフログや視覚情報をどう取るか
Rewind Pendant
Humane Ai Pin
XREAL, Visorのスクショ
↑で取得した視覚情報をGyazoかGoogle LensでOCRする
↑で取得した文字情報をScrapboxに展開する
関連
サングラス型XRディスプレイでプログラミングが捗る(スマートグラスでもARグラスでも好きに呼ぶといい…) #仕事効率化 - Qiita
「XREAL Air+Beam」は仕事に役立つか? “今すぐ買えるARグラス”でモバイルオフィスを実現
Quest 3、Quest 2、XREAL Airの比較(ごろ寝で映画・ノベルゲームの環境を目指して) - キリン舎@キーキャップのお店(文筆店)
他、自戒
アイデアの価値は「検証」してみないとわからない
情報を記憶して整理することと整頓して必要な時に引き出せるようにすることの関心は別物