PyTorch: retain_graph
PyTorch
:
retain_graph
backward
した
計算グラフ
を解放せず保持する
複数の
loss
を持つ(
multi-task
な)グラフに使う
lossを足してしまえば一度のbackwardで済む?
Adam
などlossに応じてハイパーパラメータを変える
optimizer
の場合,足すと挙動が変わる?
loss毎に別々のoptimizerを持つべき?
#TODO
RNN
で過去の
隠れ状態
をずっととっておきつつ複数回backwardする場合も使う
普通は一定以前の隠れ状態は定数とみなす(
detach
する)?計算コスト・メモリコスト的にも.
https://stackoverflow.com/questions/46774641/what-does-the-parameter-retain-graph-mean-in-the-variables-backward-method