bf16
https://gyazo.com/8cee67778bcdd9a8c6379de1782903b7
ニューラル ネットワークは、仮数のサイズよりも指数のサイズに敏感です。アンダーフロー、オーバーフロー、NaN で同じ動作になるように、bfloat16 の指数サイズは float32 と同じです。
bfloat16 は、float32 とは異なる方法で非正規化を処理し、ゼロにフラッシュします。 損失スケーリングなどの特別な処理が通常必要な float16 とは異なり、bfloat16 はディープ ニューラル ネットワークをトレーニングして実行する際の float32 の一時的な代替となります。
実証研究
Our results show that deep learning training using BFLOAT16 tensors achieves the same state-of-the-art (SOTA) results across domains as FP32 tensors in the same number of iterations and with no changes to hyper-parameters. A Study of BFLOAT16 for Deep Learning Training
2019