scipy.optimize.
linearmixing#
- scipy.optimize.linearmixing(F, xin, iter=None, alpha=None, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#
使用标量雅可比近似查找函数的根。
警告
此算法可能对特定问题有用,但其是否有效可能很大程度上取决于问题本身。
- 参数:
- F函数(x) -> f
要查找其根的函数;应接受并返回一个类数组对象。
- xin类数组
解的初始猜测
- alpha浮点数, 可选
雅可比近似为 (-1/alpha)。
- iter整数, 可选
要进行的迭代次数。如果省略(默认),则进行满足容差所需的次数。
- verbose布尔值, 可选
在每次迭代时向标准输出打印状态。
- maxiter整数, 可选
最大迭代次数。如果需要更多迭代才能收敛,则会引发
NoConvergence
。- f_tol浮点数, 可选
残差的绝对容差(基于最大范数)。如果省略,默认为 6e-6。
- f_rtol浮点数, 可选
残差的相对容差。如果省略,则不使用。
- x_tol浮点数, 可选
根据雅可比近似确定的绝对最小步长。如果步长小于此值,则优化成功终止。如果省略,则不使用。
- x_rtol浮点数, 可选
相对最小步长。如果省略,则不使用。
- tol_norm函数(向量) -> 标量, 可选
在收敛检查中使用的范数。默认为最大范数。
- line_search{None, ‘armijo’ (默认), ‘wolfe’}, 可选
用于确定雅可比近似给定方向上的步长的线搜索类型。默认为 ‘armijo’。
- callback函数, 可选
可选的回调函数。它在每次迭代时被调用为
callback(x, f)
,其中 x 是当前解,f 是相应的残差。
- 返回:
- solndarray
一个包含最终解的数组(与 x0 类似数组类型)。
- 引发:
- NoConvergence
未找到解时。
另请参阅
root
多元函数求根算法的接口。特别参阅
method='linearmixing'
。