scipy.special.xlogy#
- scipy.special.xlogy(x, y, out=None) = <ufunc 'xlogy'>#
计算
x*log(y)
,以便当x = 0
时结果为 0。- 参数:
- xarray_like
乘数
- yarray_like
参数
- outndarray, 可选
函数结果的可选输出数组
- 返回:
- z标量或 ndarray
计算得到的 x*log(y)
说明
计算中使用的对数函数是自然对数。
在版本 0.13.0 中添加。
示例
我们可以使用此函数来计算二元逻辑损失,也称为二元交叉熵。此损失函数用于二元分类问题,定义为
\[L = 1/n * \sum_{i=0}^n -(y_i*log(y\_pred_i) + (1-y_i)*log(1-y\_pred_i))\]我们可以将参数 x 和 y 分别定义为 y 和 y_pred。y 是实际标签的数组,此处可以是 0 或 1。y_pred 是相对于正类 (1) 的预测概率数组。
>>> import numpy as np >>> from scipy.special import xlogy >>> y = np.array([0, 1, 0, 1, 1, 0]) >>> y_pred = np.array([0.3, 0.8, 0.4, 0.7, 0.9, 0.2]) >>> n = len(y) >>> loss = -(xlogy(y, y_pred) + xlogy(1 - y, 1 - y_pred)).sum() >>> loss /= n >>> loss 0.29597052165495025
较低的损失通常更好,因为它表明预测与实际标签相似。在此示例中,由于我们的预测概率接近实际标签,因此我们得到的总体损失是合理地低且适当的。