pytorchのoptimizerとscheduler
optimizerはtrainのdatasetごと
dataloaderの中のdataset
code:py
for input, target in dataset:
optimizer.zero_grad()
output = model(input)
loss = loss_fn(output, target)
loss.backward()
optimizer.step()
schedulerはepochごと
このoptimizerとschedulerの書き方間違ってると思うmiyamonz.icon
zero_gradも忘れてるし