scipy.optimize.
anderson#
- scipy.optimize.anderson(F, xin, iter=None, alpha=None, w0=0.01, M=5, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#
使用(扩展)安德森混合法查找函数的根。
雅可比矩阵由最后 M 个向量所跨越的空间中的“最佳”解形成。因此,只需要 MxM 矩阵求逆和 MxN 乘法。[Ey]
- 参数:
- F函数(x) -> f
要查找其根的函数;应接受并返回类数组对象。
- xin类数组
解的初始猜测
- alpha浮点数,可选
雅可比矩阵的初始猜测为 (-1/alpha)。
- M浮点数,可选
要保留的先前向量的数量。默认为 5。
- w0浮点数,可选
用于数值稳定性的正则化参数。与 1 相比,0.01 左右的值是很好的。
- iter整数,可选
要进行的迭代次数。如果省略(默认),则进行满足公差所需的尽可能多的迭代。
- verbose布尔值,可选
在每次迭代时将状态打印到标准输出。
- maxiter整数,可选
要进行的最大迭代次数。如果需要更多迭代才能满足收敛条件,则会引发
NoConvergence
。- f_tol浮点数,可选
残差的绝对容差(以最大范数表示)。如果省略,则默认值为 6e-6。
- f_rtol浮点数,可选
残差的相对容差。如果省略,则不使用。
- x_tol浮点数,可选
从雅可比矩阵近似确定的绝对最小步长。如果步长小于此值,则优化将终止并被视为成功。如果省略,则不使用。
- x_rtol浮点数,可选
相对最小步长。如果省略,则不使用。
- tol_norm函数(向量) -> 标量,可选
用于收敛检查的范数。默认值为最大范数。
- line_search{None, 'armijo'(默认值), 'wolfe'},可选
使用哪种类型的线搜索来确定雅可比矩阵近似给出的方向上的步长。默认为“armijo”。
- callback函数,可选
可选的回调函数。它在每次迭代时作为
callback(x, f)
调用,其中 x 是当前解,f 是对应的残差。
- 返回:
- solndarray
一个数组(与 x0 具有相似的数组类型),其中包含最终解。
- 引发:
- NoConvergence
当未找到解时。
另请参阅
root
用于多元函数的求根算法的接口。特别请参阅
method='anderson'
。
参考文献
[Ey]Eyert, J. Comp. Phys., 124, 271 (1996).
示例
以下函数定义了一个非线性方程组
>>> def fun(x): ... return [x[0] + 0.5 * (x[0] - x[1])**3 - 1.0, ... 0.5 * (x[1] - x[0])**3 + x[1]]
可以按如下方式获得解。
>>> from scipy import optimize >>> sol = optimize.anderson(fun, [0, 0]) >>> sol array([0.84116588, 0.15883789])