scipy.optimize.

linearmixing#

scipy.optimize.linearmixing(F, xin, iter=None, alpha=None, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#

使用标量雅可比近似查找函数的根。

警告

此算法可能对特定问题有用,但其是否有效可能很大程度上取决于问题。

参数:
F函数(x) -> f

要查找根的函数;应接受并返回一个类数组对象。

xin类数组

解的初始猜测

alpha浮点数,可选

雅可比近似为 (-1/alpha)。

iter整数,可选

要进行的迭代次数。如果省略(默认),则进行满足容差所需的迭代次数。

verbose布尔值,可选

在每次迭代时将状态打印到标准输出。

maxiter整数,可选

要进行的最大迭代次数。如果需要更多迭代才能满足收敛条件,则会引发 NoConvergence

f_tol浮点数,可选

残差的绝对容差(以最大范数表示)。如果省略,则默认值为 6e-6。

f_rtol浮点数,可选

残差的相对容差。如果省略,则不使用。

x_tol浮点数,可选

从雅可比近似确定的绝对最小步长。如果步长小于此值,则优化终止,视为成功。如果省略,则不使用。

x_rtol浮点数,可选

相对最小步长。如果省略,则不使用。

tol_norm函数(向量) -> 标量,可选

用于收敛检查的范数。默认值为最大范数。

line_search{None, 'armijo' (默认), 'wolfe'},可选

用于确定由雅可比近似给出的方向上的步长的线搜索类型。默认为 'armijo'。

callback函数,可选

可选的回调函数。它在每次迭代时以 callback(x, f) 的形式调用,其中 x 是当前解,而 f 是相应的残差。

返回:
solndarray

包含最终解的数组(与 x0 的数组类型相似)。

引发:
NoConvergence

当未找到解时。

另请参见

root

多元函数求根算法的接口。特别参见 method='linearmixing'