モデルの内部構造解析
動的transfomerの実験
The Landscape of Memorization in LLMs: Mechanisms, Measurement, and Mitigation
関東Kaggler会LT: 人狼コンペとLLM量子化について
深層学習が多層の膨大なパラメータを学習できる雰囲気を理解する
Exploring Direct Tensor Manipulation in Language Models: A Case Study in Binary-Level Model Enhancement
従来の勾配ベース手法とは異なり、既存の重みを外科的に修正してパフォーマンス向上を目指す。大規模言語モデルを使用してターゲットモデルのアーキテクチャと重み分布を分析し、特定の修正案を推論とともに生成する。
attention viz
WHAT MATTERS IN TRANSFORMERS? NOT ALL ATTENTION IS NEEDED
機械論的解釈可能性の紹介
Interpretability and Analysis in Neural NLP
Explanation in the Era of Large Language Models
言語処理学会第31回年次大会(NLP2025) チュートリアル3「ことばの意味を計算するしくみ」谷中瞳先生(東京大学/理化学研究所)
https://www.youtube.com/watch?v=s9dfHSYG_UI
言語処理学会第31回年次大会(NLP2025) チュートリアル1「言語モデルの内部機序:解析と解釈」Benjamin Heinzerling 先生・横井祥先生・小林悟郎先生
https://www.youtube.com/watch?v=h1hPultagtA
Language Models Are Implicitly Continuous
機械学習工学 (機械学習プロフェッショナルシリーズ)