scipy.special.

softmax#

scipy.special.softmax(x, axis=None)[源代码]#

计算 softmax 函数。

softmax 函数通过计算每个元素的指数除以所有元素的指数之和,从而转换集合的每个元素。也就是说,如果 x 是一个一维 numpy 数组

softmax(x) = np.exp(x)/sum(np.exp(x))
参数:
xarray_like

输入数组。

axisint 或 int 元组,可选

计算值的轴。默认为 None,softmax 将在整个数组 x 上计算。

返回值:
sndarray

x 相同形状的数组。结果将在指定轴上求和为 1。

注意

softmax 函数 \(\sigma(x)\) 的公式对于 vector \(x = \{x_0, x_1, ..., x_{n-1}\}\) 如下

\[\sigma(x)_j = \frac{e^{x_j}}{\sum_k e^{x_k}}\]

softmax 函数是 logsumexp 的梯度。

该实现使用平移来避免溢出。有关更多详细信息,请参阅 [1]

在 1.2.0 版本中添加。

参考

[1]

P. 布兰查德,D. J. 海厄姆,N. J. 海厄姆,“精算 log-sum-exp 及 softmax 函数”,《IMA 数值分析杂志》,第 41(4)卷,DOI:10.1093/imanum/draa038.

示例

>>> import numpy as np
>>> from scipy.special import softmax
>>> np.set_printoptions(precision=5)
>>> x = np.array([[1, 0.5, 0.2, 3],
...               [1,  -1,   7, 3],
...               [2,  12,  13, 3]])
...

对整个数组计算 softmax 变换。

>>> m = softmax(x)
>>> m
array([[  4.48309e-06,   2.71913e-06,   2.01438e-06,   3.31258e-05],
       [  4.48309e-06,   6.06720e-07,   1.80861e-03,   3.31258e-05],
       [  1.21863e-05,   2.68421e-01,   7.29644e-01,   3.31258e-05]])
>>> m.sum()
1.0

沿第一轴(即列)计算 softmax 变换。

>>> m = softmax(x, axis=0)
>>> m
array([[  2.11942e-01,   1.01300e-05,   2.75394e-06,   3.33333e-01],
       [  2.11942e-01,   2.26030e-06,   2.47262e-03,   3.33333e-01],
       [  5.76117e-01,   9.99988e-01,   9.97525e-01,   3.33333e-01]])
>>> m.sum(axis=0)
array([ 1.,  1.,  1.,  1.])

沿第二轴(即行)计算 softmax 变换。

>>> m = softmax(x, axis=1)
>>> m
array([[  1.05877e-01,   6.42177e-02,   4.75736e-02,   7.82332e-01],
       [  2.42746e-03,   3.28521e-04,   9.79307e-01,   1.79366e-02],
       [  1.22094e-05,   2.68929e-01,   7.31025e-01,   3.31885e-05]])
>>> m.sum(axis=1)
array([ 1.,  1.,  1.])