power#
- scipy.stats.power(test, rvs, n_observations, *, significance=0.01, vectorized=None, n_resamples=10000, batch=None, kwargs=None)[源代码]#
模拟备择假设下假设检验的功效。
- 参数:
- test可调用对象
要模拟功效的假设检验。
test
必须是接受一个样本(例如,test(sample)
)或len(rvs)
个单独样本(例如,如果 rvs 包含两个可调用对象且 n_observations 包含两个值,则为test(samples1, sample2)
)并返回检验的 p 值。如果 vectorized 设置为True
,test
也必须接受关键字参数 axis 并进行向量化,以便沿样本的提供的 axis 执行检验。来自scipy.stats
的任何带有 axis 参数并返回具有 pvalue 属性的对象的任何可调用对象也是可以接受的。- rvs可调用对象或可调用对象的元组
一个可调用对象或一系列可调用对象,用于生成备择假设下的随机变量。 rvs 的每个元素都必须接受关键字参数
size
(例如,rvs(size=(m, n))
)并返回该形状的 N 维数组。如果 rvs 是一个序列,则 rvs 中的可调用对象的数量必须与 n_observations 的元素数量匹配,即len(rvs) == len(n_observations)
。如果 rvs 是单个可调用对象,则 n_observations 被视为单个元素。- n_observations整数元组或整数数组元组
如果是一个整数序列,则每个整数是要传递给
test
的样本大小。如果是整数数组序列,则会为每个对应的样本大小集模拟功效。请参见示例。- significance浮点数或类数组浮点数,默认值:0.01
显著性阈值;即,p 值低于该阈值,则假设检验结果将被视为与零假设相反的证据。等效地,在零假设下可接受的 I 类错误率。如果是一个数组,则会为每个显著性阈值模拟功效。
- kwargsdict,可选
要传递给 rvs 和/或
test
可调用对象的关键字参数。使用自省来确定哪些关键字参数可以传递给每个可调用对象。与每个关键字对应的值必须是一个数组。数组必须彼此广播,并且可以与 n_observations 中的每个数组进行广播。将为每组相应的样本大小和参数模拟功效。请参见示例。- vectorizedbool,可选
如果 vectorized 设置为
False
,则不会将关键字参数 axis 传递给test
,并且test
应仅对 1D 样本执行检验。如果为True
,则会将关键字参数 axis 传递给test
,并且应在传递 N 维样本数组时沿 axis 执行检验。如果为None
(默认值),如果axis
是test
的参数,则将 vectorized 设置为True
。使用向量化检验通常会减少计算时间。- n_resamplesint,默认值:10000
从 rvs 的每个可调用对象中提取的样本数。等效地,在备择假设下执行的检验次数,以逼近功效。
- batchint,可选
每次调用
test
时要处理的样本数。内存使用量与 batch 和最大样本大小的乘积成正比。默认值为None
,在这种情况下,batch 等于 n_resamples。
- 返回:
- resPowerResult
具有属性的对象
- powerfloat 或 ndarray
针对备择假设的估计功效。
- pvaluesndarray
在备择假设下观察到的 p 值。
备注
功效的模拟方式如下
在 rvs 指定的备择假设下,绘制多个随机样本(或样本集),每个样本的大小由 n_observations 指定。
对于每个样本(或样本集),根据
test
计算 p 值。这些 p 值记录在结果对象的pvalues
属性中。计算小于 significance 水平的 p 值的比例。这是记录在结果对象的
power
属性中的功效。
假设 significance 是一个形状为
shape1
的数组,kwargs 和 n_observations 的元素可以相互广播到形状shape2
,并且test
返回形状为shape3
的 p 值数组。然后,结果对象power
属性的形状将为shape1 + shape2 + shape3
,并且pvalues
属性的形状将为shape2 + shape3 + (n_resamples,)
。示例
假设我们希望在以下条件下模拟独立样本 t 检验的功效
第一个样本有 10 个观测值,这些观测值是从均值为 0 的正态分布中提取的。
第二个样本有 12 个观测值,这些观测值是从均值为 1.0 的正态分布中提取的。
显著性的 p 值阈值为 0.05。
>>> import numpy as np >>> from scipy import stats >>> rng = np.random.default_rng() >>> >>> test = stats.ttest_ind >>> n_observations = (10, 12) >>> rvs1 = rng.normal >>> rvs2 = lambda size: rng.normal(loc=1, size=size) >>> rvs = (rvs1, rvs2) >>> res = stats.power(test, rvs, n_observations, significance=0.05) >>> res.power 0.6116
对于大小分别为 10 和 12 的样本,在所选的备择假设下,显著性阈值为 0.05 的 t 检验的功效约为 60%。我们可以通过传递样本大小数组来研究样本大小对功效的影响。
>>> import matplotlib.pyplot as plt >>> nobs_x = np.arange(5, 21) >>> nobs_y = nobs_x >>> n_observations = (nobs_x, nobs_y) >>> res = stats.power(test, rvs, n_observations, significance=0.05) >>> ax = plt.subplot() >>> ax.plot(nobs_x, res.power) >>> ax.set_xlabel('Sample Size') >>> ax.set_ylabel('Simulated Power') >>> ax.set_title('Simulated Power of `ttest_ind` with Equal Sample Sizes') >>> plt.show()
或者,我们可以研究效应大小对功效的影响。在本例中,效应大小是第二个样本的基础分布的位置。
>>> n_observations = (10, 12) >>> loc = np.linspace(0, 1, 20) >>> rvs2 = lambda size, loc: rng.normal(loc=loc, size=size) >>> rvs = (rvs1, rvs2) >>> res = stats.power(test, rvs, n_observations, significance=0.05, ... kwargs={'loc': loc}) >>> ax = plt.subplot() >>> ax.plot(loc, res.power) >>> ax.set_xlabel('Effect Size') >>> ax.set_ylabel('Simulated Power') >>> ax.set_title('Simulated Power of `ttest_ind`, Varying Effect Size') >>> plt.show()
我们还可以使用
power
来估计检验的 I 类错误率(也称为模糊术语“大小”),并评估它是否与标称水平匹配。例如,jarque_bera
的零假设是样本是从具有与正态分布相同的偏度和峰度的分布中提取的。要估计 I 类错误率,我们可以将零假设视为真实的备择假设并计算功效。>>> test = stats.jarque_bera >>> n_observations = 10 >>> rvs = rng.normal >>> significance = np.linspace(0.0001, 0.1, 1000) >>> res = stats.power(test, rvs, n_observations, significance=significance) >>> size = res.power
如下所示,正如其文档中所述,对于如此小的样本,检验的 I 类错误率远低于标称水平。
>>> ax = plt.subplot() >>> ax.plot(significance, size) >>> ax.plot([0, 0.1], [0, 0.1], '--') >>> ax.set_xlabel('nominal significance level') >>> ax.set_ylabel('estimated test size (Type I error rate)') >>> ax.set_title('Estimated test size vs nominal significance level') >>> ax.set_aspect('equal', 'box') >>> ax.legend(('`ttest_1samp`', 'ideal test')) >>> plt.show()
正如人们对如此保守的检验所期望的那样,相对于某些备择假设,功效非常低。例如,在样本是从拉普拉斯分布中提取的备择假设下,检验的功效可能不会比 I 类错误率大得多。
>>> rvs = rng.laplace >>> significance = np.linspace(0.0001, 0.1, 1000) >>> res = stats.power(test, rvs, n_observations, significance=0.05) >>> print(res.power) 0.0587
这并非 SciPy 实现中的错误;这仅仅是因为检验统计量的零分布是在假设样本量很大(即趋于无穷大)的情况下推导出来的,而这种渐近近似对于小样本是不准确的。 在这种情况下,重采样和蒙特卡洛方法(例如
permutation_test
,goodness_of_fit
,monte_carlo_test
)可能更合适。