ニューラルネットワークの出力層で使われる関数です。各クラスの生スコア(logits)を「合計が1になる確率分布」に変換し、「このデータがどのクラスに属するか」を確率で表現します。
Softmaxは、ニューラルネットワークが出力する「各クラスの生スコア(logits)」を「確率分布」に変換する関数です。 たとえば画像分類AIが「猫:2.0, 犬:1.0, 鳥:0.5」というスコアを出したとき、Softmaxを通すと「猫:66.5%, 犬:24.5%, 鳥:9.0%」のように合計100%の確率に変換されます。Sigmoidが1つのニューロンの出力を0〜1にするのに対し、Softmaxは複数のニューロンの出力をまとめて確率分布にする点が異なります。 多クラス分類(3つ以上のカテゴリに分ける問題)の出力層で必ず使われます。