ニューラル構造探索(NAS)
最先端NLP勉強会
Lottery Ticket Hypothesis
LoRA
AIの圧縮・高速化
LLMの圧縮・高速化
タスクに応じた適切なアーキテクチャの探索
探索空間の設定
性能評価のコスト
生物学との対応
重みの学習が個人の学習であり、アーキテクチャの学習が進化にあたるのでは?
https://arxiv.org/abs/2303.10464
SPDF: Sparse Pre-training and Dense Fine-tuning for Large Language Models
【DL輪読会】LLMによるアルゴリズム生成に関わる論文
https://www.docswell.com/s/DeepLearning2023/54VYWG-2024-10-10-125036#p3
Low-Rank Adapters Meet Neural Architecture Search for LLM Compression
https://arxiv.org/abs/2501.16372
ALPHAEDIT: NULL-SPACE CONSTRAINED KNOWLEDGE EDITING FOR LANGUAGE MODELS
https://openreview.net/pdf?id=HvSytvg3Jh&hm_ct=d17807e98595783ee6edfc7ae00fe95a&hm_cv=87e6d4e056b010261ecdc77d7ac8eb6c&hm_cs=472732444684164e5a279f7.40462264&hm_mid=m33oo&hm_id=m33oo&hm_h=a03.hm-f.jp
岡野原大輔のランチタイムトーク Vol.41「学習したLLMを直接編集する」
https://a03.hm-f.jp/index.php?action=ViewPublicBnMail&mid=108&gid=15&aid=946&bn_code=847b025ee8c0f2d5466573219aa1245f
Estimating the Probability of Sampling a Trained Neural Network at Random
https://arxiv.org/pdf/2501.18812