表現学習
統計的機械学習
MLにおける幾何学的手法
AI技術の最前線
強化学習
世界モデル
多様体
多様体・微分幾何・情報幾何
集合と位相
微分幾何学とトポロジー
MLにおける幾何学的手法
Graph Neural Network
Embedding model
Representation Learning: A Review and New Perspectives
https://arxiv.org/abs/1206.5538
Disentangled な表現の教師なし学習手法の検証
https://tech.preferred.jp/ja/blog/disentangled-represetation/
表現学習【講義やサーベイ論文など】
https://tiisaku.com/representation-learning-courses-surveys/
Object-Centric Learning with Slot Attention
https://arxiv.org/abs/2006.15055
物体中心表現とは本rない三次元である物体を二次元情報化r亜人間が認識する際に活用していると考えられる、構造を持つ潜在表現をさす言葉である
生成モデルの潜在空間における自然な距離尺度(内在的な距離尺度)ってなんだろう?と考えて,すぐこの論文を思い出した
https://x.com/hayashiyus/status/1663934024690323457
数年前に、VAEでは実空間と潜在空間の計量を定量的に結びつけられることを示した研究をICMLで発表しました。
しかしTransformerでは、中々難しいですね。
https://blog.fltech.dev/entry/2021/11/11/PCSJ-IMPS-2021
Deep Neural Networksの力学的・幾何学的解析
https://www.ai-gakkai.or.jp/jsai2016/webprogram/2016/pdf/773.pdf
仮説1-1 高次元空間に存在する実世界のデータは、非常に低次元の非線形多様体付近に集中している
仮説1-2 高次元に存在する実世界のデータはクラスごとに違う部分多様体に埋め込まれており、それらの部分多様体の間は低密度領域となっている
パフォーマンスの高い学習ずみDeep Neural Networksは上の多様体を多様体と同じ次元のユークリッド空間へ写像する能力を持つ
ニューラルネットワークが獲得した関数をデータセット多様体を大域的な座標系へ写像する関数だとみなすと、その関数を元の多様体の性質を知ることが可能となる
多様体から多様体への写像の微分は多様体の接空間を定義し、そこから多様体の次元や接ベクトルなどの情報を得ることができる
「モデルのパラメータ数を大きくするほど汎化誤差が減少する」という(驚異の)スケーリング則は,Transformerだけでなく,CNNなどの深層学習モデル,ChatGPTなどのLLMでも観察されている。このスケーリング則は,多様体仮説を仮定すれば説明できる,という論文
https://x.com/hayashiyus/status/1631708460281921538
画像やテキストなどのリアルワールドデータについて多様体仮説が成り立つように見えるのは,それらのリアルワールドデータが人間が一見して意味を読み取れる種類のデータだからではないか.つまり,人間の認知が拘束条件として働いて多様体仮説を生み出しているんじゃないか,と思った
タコの驚異のカモフラージュ~環世界とか多様体仮説とか~
https://note.com/baribio91/n/n989c45c5272a
Deep Learning と位相・微分幾何学
https://speakerdeck.com/connection_automated_ai/deep-learning-towei-xiang-wei-fen-ji-he-xue?slide=4
深層学習モデルのひとつの解釈は、高次元の多様体を小さな次元の多様体へと写像をする操作
深層学習モデルがアフィン変換によっておこなう入力データから低次元の別の多様体への同相写像を元に、元の入力データが持っていた幾何学的な構造を特定することができる
損失関数の偏微分ベクトルが最大値をとる方向に、中間層の重みを更新するのが妥当なのは、入力データが中間層によって同相変換された結果、得られる多様体の曲率がユークリッド空間である場合に限定される
幾何と機械学習:
https://www.slideshare.net/slideshow/a-short-intro/251606660
nlpの単語などのシンボリックデータは階層性(木構造)を伴うので、euclid空間ではなく、双曲空間にembeddingする方が効率的である
ポアンカレ embedding
https://tech-blog.abeja.asia/entry/poincare-embeddings
I-Con: A Unifying Framework for Representation Learning
https://arxiv.org/abs/2504.16929
2D Matryoshka Sentence Embeddings
https://arxiv.org/abs/2402.14776
Matryoshka Representation Learning
https://arxiv.org/abs/2205.13147
SemCSE: Semantic Contrastive Sentence Embeddings Using LLM-Generated Summaries For Scientific Abstracts
https://arxiv.org/abs/2507.13105
従来の引用ベース手法の問題点を指摘し、Llama-3-8B で生成した科学論文要約を用いて意味的類似性に特化した埋め込み学習を実現