水中ドローン研究
ロボットシステム
水中ドローン
Language and Robotics研究会
ロボットビジョン
ロボットコントロール
SLAM
ROS学習メモ
ROS2
ロボット経路計画
Q-attention: Enabling Efficient Learning for Vision-based Robotic Manipulation
観測画像からどこを操作すべきかのAttentionを計算し、それをもとにpolicyを学習
エージェントの画像空間とLLMの言語空間の対応づけができれば、強化学習においてLLMの事前知識を使えるのでは?
水中ドローンの強化学習で、構成的な制御タスクをLLMへのpromptingを利用することで学習効率上げられる説
画像→CLIPでキャプション(画質的にきつそう)→LLM→タスク分解→経路計画etc
ソナーからの3D情報なり、画像なり→なんかでキャプション→LLM→タスク分解→経路計画etc
画面見て、声で操作?
LLMはあくまで根本はテキストデータから統計的な傾向を学習しているので、テキスト化されやすい手続き的知識を要するタスク設定がよい(料理、プログラミングとか)
Visually-Grounded Planning without Vision: Language Models Infer Detailed Plans from High-level Instructions
https://aclanthology.org/2020.findings-emnlp.395/
ALFRED: A Benchmark for Interpreting Grounded Instructions for Everyday Tasks
https://arxiv.org/abs/1912.01734
LM-Nav: Robotic Navigation with Large Pre-Trained Models of Language, Vision, and Action
https://sites.google.com/view/lmnav
Grounding Language with Visual Affordances over Unstructured Data
https://arxiv.org/abs/2210.01911
Leveraging Language for Accelerated Learning of Tool Manipulation
https://proceedings.neurips.cc/paper/2021/file/f6f154417c4665861583f9b9c4afafa2-Paper.pdf
GCRL-Collection
https://github.com/apexrl/GCRL-Collection
水中ドローンはマルチモーダルな処理なので、基盤モデルと相性が良いはず
基盤モデルをシステムに組み込む or RT1応用 or RT1のドローン特化みたいなのでないかな
SayCan
実空間タスクプランニング
LATTE
自然言語指示で動作修正
CLIP-Fields
マップ上の空間的位置に対応するセマンティックな表現ベクトルを得られる
GNM: A General Navigation Model to Drive Any Robot
https://www.youtube.com/watch?v=ICeD6iOglKc
OUXT Polaris:ROS2を活用した自作自律航行船NavigationSystem概要
https://qiita.com/MeRT/items/c89d33afde65cf3b921d
ChatGPTに制御させる
https://www.gizmodo.jp/2023/03/ai-chatgpt-microsoft-control-robots-terminator.html
Neural Implicit Surface Reconstruction using Imaging Sonar(ICRA 2023)
https://twitter.com/rsasaki0109/status/1637596431455490048?s=20
水中ロボットの測位の話
https://www.oa.u-tokyo.ac.jp/researcher-story/028.html