説明可能AI
深層学習の原理
AI safety
ニューラル構造探索(NAS)
Transformer
Embedding model
実践XAI
1章 モデルの説明可能性と解釈可能性
2章 AIの倫理、偏見、信頼性
3章 線形モデルの説明可能性
4章 非線形モデルの説明可能性
5章 アンサンブルモデルの説明可能性
6章 時系列モデルの説明可能性
7章 自然言語処理の説明可能性
8章 What-Ifシナリオを使ったモデルの公平性
9章 ディープラーニングモデルの説明可能性
10章 XAIモデルの反実仮想説明
11章 機械学習での対比的説明
12章 予測不変性の特定によるモデル不可知の説明
13章 ルールベースのエキスパートシステムでのモデルの説明可能性
14章 コンピュータビジョンでのモデルの説明可能性
Neural Additive Models: Interpretable Machine Learning with Neural Nets
線形にDNNを組み合わすことで解釈性を高めた
人間がDLをわからないのは理由がある
https://globe.asahi.com/article/12872410
Example-based Explainable AI
https://arxiv.org/abs/2209.03433
https://arxiv.org/abs/1811.09720
https://arxiv.org/abs/1810.10118
https://arxiv.org/abs/1904.02868
https://arxiv.org/abs/2003.11630
https://arxiv.org/abs/2102.02515
2023年度人工知能学会全国大会 (JSAI2023) チュートリアル「解釈可能な機械学習 〜説明は人のためか〜
https://speakerdeck.com/yuyay/jsai2023-tiyutoriaru-jie-shi-ke-neng-naji-jie-xue-xi-shuo-ming-haren-notameka
LogitLens4LLMs: Extending Logit Lens Analysis to Modern Large Language Models
https://arxiv.org/html/2503.11667v1