pytorch の NLLLoss の挙動
Negative Log Likelihood(NLL) Lossという名前から自分が予測する関数の挙動と実際の関数の挙動が毎回異なって少し困っていたので、具体例を交えつつ挙動の確認を行う。
環境
- pytorch stable (1.4)
概要
NLL Loss は対数は取らず負の符号は取り、ベクトルの重み付き平均 or 和を計算する。
関数名に対数が付いているのは、何らかの確率に対して対数を取ったものを入力とすることが期待されているから。
詳細
pytorchでは nll_loss
関数と NLLLoss
クラスが定義されている。NLLLoss
クラスは nn.Module
を継承しており、 forward
メソッドで nll_loss
を呼び出すので中身は殆ど同じである。
公式ドキュメントの NLLLoss
クラスの所に書かれている通り、NLLLoss
クラスのインスタンスで計算される損失関数は、
で定義される。
ここで, は正の整数でそれぞれデータ数、クラス数を表す。 は の実行列(たとえばニューラルネットワークの出力など)、 は 次元のベクトルで各要素 は整数 を取る。 は 次元の実ベクトルだが、デフォルト値は全て 1 なので値の指定をしない限りは今は特に気にする必要はない。 なので 基本的に
と考えれば良い。よって損失関数 は、
となる。
ある程度ソースコードを読むと,実際の処理はtorch._C._nn.nll_loss
という関数に処理を投げていることがわかる。これはどこにあるかというと、https://discuss.pytorch.org/t/where-is-torch-c-nn-nll-loss/9769 に書かれている通り, ClassNLLCriterion
に投げられているらしい。が,結局これは cuda に投げているだけなので、この関数の動作を理解するという目的からすると本質的な情報ではない。
ある程度の挙動が分かってきたので,具体例と実際の計算結果から NLLLoss
の挙動を把握する。
例 1:和の計算
クラス数 、データ数 、重み は全て 1 , reduction = 'sum'
とする。
を与えたとき、 はどうなるか?
答え
C = 3 N = 3 x = torch.Tensor([ [0.1, 0.8, 0.1], ]) target = torch.Tensor([1]).to(dtype=torch.long) output = F.nll_loss(x, target) print(output) # tensor(-0.8000)
例 2:平均の計算
クラス数 、データ数 、 は全て 1 、 reduction = 'mean'
とする。
、 を与えたとき、 はどうなるか?
答え
C = 3 N = 3 x = torch.Tensor([ [0.1, 0.8, 0.1], [0.6, 0.2, 0.2], [0.25, 0.25, 0.5], ]) target = torch.Tensor([1, 0, 2]).to(dtype=torch.long) output = F.nll_loss(x, target) print(output) # tensor(-0.6333)
例3:重み付き平均の計算
クラス数 、 データ数 、 、 reduction = 'mean'
とする。
、 を与えたとき、 はどうなるか?
答え
C = 3 N = 3 x = torch.Tensor([ [0.1, 0.8, 0.1], [0.6, 0.2, 0.2], [0.25, 0.25, 0.5], ]) weight = torch.Tensor([0.1, 0.1, 0.2]) target = torch.Tensor([1, 0, 2]).to(dtype=torch.long) output = F.nll_loss(x, target, weight=weight) print(output) # -0.6
NLLLoss の使い所
x
をネットワークの出力、y
をラベルとしたとき、nll_loss(log_softmax(x), y)
のように使われることが多い。これは cross_entropy(softmax(x), y)
の計算結果と同じである。
なぜこのような実装になっているのか
NLLLoss
が使われるタイミングとして、上にも書いたように log_softmax 関数の後に適用されることが多いです。
素直に考えると、そんなことはせず単純に softmax 関数を出力に適用した後にクロスエントロピーの式に投げて計算すれば良いのでは?と思いますが、softmaxとlogを別々に適用すると数値計算が不安定になるようです。
なぜかというと、softmax は
に従って計算されますが、 が大きな値を取る場合に がオーバーフローするからです。
これを防ぐために最終的な計算結果を変えることなくオーバーフローしないように の中の数値を変換します。ある実数 に対して が成り立つため、
が得られます。そこで のように を定めると、全ての に対して が成り立ち、オーバーフローを回避できます。 これを exp-normalize trickと呼んでいるようです。
このような exp-normalize によってオーバーフローの問題を回避できるわけですが、log_softmax でも同様の方法によってオーバーフローを回避できます。
は exp-normalize と同じように決定すれば良いです。この場合は、log-sum-exp と呼ばれているようです(そのままですね)。
Exp-normalize と log-sum-exp どちらが良いのかという話ですが、log-sum-exp を使った方が exp-normalize と比べて exp の呼び出し回数が減るので全体的な学習時間も少しだけ早くなることが期待され、少しメリットがあるような気がします。
クロスエントロピーの計算においては NLLLoss を使った計算をする方が良いのは分かりましたが、NLLLoss がなぜこのような名前のまま放置されているのかはあまり自分もよく分かっていないままです...。
The input given through a forward call is expected to contain log-probabilities of each class
公式ドキュメントには logを取った確率の入力が期待されていると書かれており、この入力の log 要素が残ったものなのかなと思っています。
所感
振り返ると、log と softmax を分けると数値計算が不安定になるというのは結構嘘な気がしますが(別に exp-normalize でも良さそうなので)(追記:
Justification for LogSoftmax being better than Log(Softmax) - PyTorch Forums に書いてあるように、別々で適用した場合は exp-normalize した場合であっても log にほぼほぼ 0 の値が入るような状況であれば発散するので、数値計算は不安定になります。)、log_softmax にすることでそれなりのメリットがあるということが知れて良かったです。