ウェアラブルデバイスを活用して視覚情報のコンテキストを含めたAIとの協働作業を考える
from
https://twitter.com/koushisa/status/1635594098974531584
メタバース
内で
エンジニアリング
するとして、そのメタバースの画面や端末、ポモドーロなどをテキスト化してLLMに食わせるとどうなるか
時間の使い方の意図や試行錯誤を言語化していれば、別にポモドーロでなくともよいが、あらゆる知的生産物のアウトプットに至るまでの思考の癖や見えづらい部分を客観視できるのではないか
知的生産行為の作業環境をメタバースにつくるというのがポイントか
ライフログ
を全て取るのは無理でも現実的なのかもしれない
標題のツイートは半年以上前のものだけど、最近
なんでもとりあえずGyazoっておけば後で検索することができる
というのを実感する中で、
アイデア
が
コネクティングドット
した。
具体的には
ウェアラブルデバイス
や
MR
で
視覚
のコンテキストを
LLMs
に渡す仕組みができると、何か面白い
知的生産
や
AIとの協働
ができそうだ
キーワード
非線形的
な
思考の連続性
や
思考のマリネ漬け
誰にもその人なりの思考の癖があり、また多くの人に共通する癖もある
知識の転移
アクティブラーニング
ヒューマンインタフェース
ウェアラブルデバイス
Rewind Pendant
Humane Ai Pin
AR
XREAL
MR
Visor
メタが示したビジョンは、VRとMRでリアルな人間とバーチャルなアバター(キャラクター)が一緒に仕事をする、空間を超えたコワーキング
ライフログや視覚情報をどう取るか
Rewind Pendant
Humane Ai Pin
XREAL
,
Visor
のスクショ
↑で取得した視覚情報を
Gyazo
か
Google Lens
で
OCR
する
↑で取得した文字情報を
Scrapbox
に展開する
関連
サングラス型XRディスプレイでプログラミングが捗る(スマートグラスでもARグラスでも好きに呼ぶといい…) #仕事効率化 - Qiita
「XREAL Air+Beam」は仕事に役立つか? “今すぐ買えるARグラス”でモバイルオフィスを実現
Quest 3、Quest 2、XREAL Airの比較(ごろ寝で映画・ノベルゲームの環境を目指して) - キリン舎@キーキャップのお店(文筆店)
他、自戒
アイデアの価値は「検証」してみないとわからない
情報を記憶して整理することと整頓して必要な時に引き出せるようにすることの関心は別物