scipy.optimize.

anderson#

scipy.optimize.anderson(F, xin, iter=None, alpha=None, w0=0.01, M=5, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#

使用(扩展)Anderson 混合来查找一个函数的根。

雅可比通过在由最后M个向量组成的空间内寻找“最佳”解决方案而形成。因此,只需要 MxM 矩阵求逆和 MxN 乘法。 [Ey]

参数:
F函数(x) -> f

要查找其根的函数;应获取并返回一个类数组对象。

xin类数组

解的初始猜测

alpha浮点数,可选

雅可比的初始猜测为 (-1/alpha)。

M浮点数,可选

要保留的前一个向量的数量。默认为 5。

w0浮点数,可选

数值稳定性的正则化参数。与 unity 相比,建议值约为 0.01。

iterint,可选

要进行的迭代次数。如果省略(默认),则执行满足容差所需的任意次数的迭代。

verbosebool,可选

每次迭代时都将状态打印到 stdout。

maxiterint,可选

要执行的最大迭代次数。如果需要更多次数才能满足收敛,则会引发 NoConvergence

f_tolfloat,可选

残差的绝对容差(最大范数)。如果省略,则默认为 6e-6。

f_rtolfloat,可选

残差的相对容差。如果省略,则不使用。

x_tolfloat,可选

从雅可比近似确定的绝对最小步长。如果步长小于此值,则优化将终止为成功。如果省略,则不使用。

x_rtolfloat,可选

相对最小步长。如果省略,则不使用。

tol_normfunction(vector) -> scalar,可选

用于收敛性检查的范数。默认为最大范数。

line_search{None,‘armijo’(默认),‘wolfe’},可选

哪种类型的线搜索用于确定雅可比近似给定的方向中的步长。默认为‘armijo’。

callback函数,可选

可选的回调函数。它在每次迭代时以 callback(x, f) 的形式调用,其中 x 是当前解,f 是相应的残差。

返回:
solndarray

包含最终解的数组(与 x0 类似的数组类型)。

引发:
NoConvergence

未找到解时,引发此异常。

另请参见

root

多变量函数的求根算法的接口。特别是参见 method='anderson'

引用

[Ey]
  1. Eyert, J. Comp. Phys., 124, 271 (1996)。

示例

以下函数定义了一个非线性方程组

>>> def fun(x):
...     return [x[0]  + 0.5 * (x[0] - x[1])**3 - 1.0,
...             0.5 * (x[1] - x[0])**3 + x[1]]

可以如下获得解。

>>> from scipy import optimize
>>> sol = optimize.anderson(fun, [0, 0])
>>> sol
array([0.84116588, 0.15883789])