Feature Interaction Interpretability: A Case for Explanining Ad-Recommendation Systems vi Neural Interaction detection
https://gyazo.com/abdcd13697343385e6dd83e6bfcdae84
WA-6, WA-6, WA-6
Accepet (Poster)
USCのYan LiuさんのチームとFacebookAI
Yan Liuさん初めて知ったけどかなり機械学習応用に精通した研究者&チームっぽい強い
Eric Zhou
このヒトと同一人物っぽい
もともとHuluの推薦システムチームのリーダー
1st: Michael Tsang
Yanさんのところの博士学生、解釈可能なAIを中心に研究してる
NIPS、ICLRなどへの採録実績
今回の研究に関連する過去の発表論文
DETECTING STATISTICAL INTERACTIONS FROM NEURAL NETWORK WEIGHTS
ICLR 2018
NIPS2017のWorkshopのをより洗練させた感じ
なんかこの紹介してる論文とかでNIPS2017を引用しているんだけど解せない、これ引いたほうがアンカーが明確になっていいのでは
Neural Interaction Transparency (NIT): Disentangling Learned Interactions for Improved Interpretability
NIPS 2018
Neural Interaction Detection
NIPS 2017 Workshop
広告システムは高い精度を実現するために特徴量の交互作用を活用する
Factorization Machines系列
GLIDER
Global Interaction Detection and Encoding for Recommendation
この論文でやりたいこと
ある変数 x_i, x_jの交互作用が予測にどう寄与しているかを評価したい
最初にNural Interaction detecntion (NID)とLIMEを使う
LIME is 何
KDD2016: LIME: "Why Should I Trust You?": Explaining the Predictions of Any Classifier
論文での説明とあんまり一致してなくてわからん
クソまとめ記事、見る価値なし
まぁまぁわかる
分離モデルにおいてある点の決定境界付近のデータをサンプリングし、解釈可能な複数のモデルで分類することで、特徴量の価値を考察する
NID
M TsangさんがNIPS 2017 Workshop で発表したやつ(Oral)
引用は0っぽい (Google Scholarによれば)
Grad-NID