scipy.optimize.
excitingmixing#
- scipy.optimize.excitingmixing(F, xin, iter=None, alpha=None, alphamax=1.0, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#
利用调整的对角雅可比行列式,寻求函数的根。
雅可比矩阵是对角线,并且在每次迭代过程中进行调整。
警告
这种算法可能适用于解决某些特定问题,但能否奏效可能在很大程度上取决于具体问题。
- 参数:
- F函数(x) -> f
要查找其根的函数;应该使用并返回一个类似数组的对象。
- xin类似数组
求解的初始猜测
- alpha浮点,可选
初始雅可比行列式近似值为 (-1/alpha)。
- alphamax浮点,可选
对角雅可比矩阵的项保持在
[alpha, alphamax]
范围内。- iterint,可选
要进行的迭代次数。如果省略(默认值),则进行尽可能多的操作来满足公差。
- verbose布尔值,可选
在每次迭代中将状态打印到 stdout。
- maxiter整数,可选
进行的最大迭代次数。如果需要更多迭代次数才能满足收敛条件,则会引发
NoConvergence
。- f_tol浮点数,可选
残差的最大范数绝对容差。如果省略,则默认为 6e-6。
- f_rtol浮点数,可选
残差的相对容差。如果省略,则不使用。
- x_tol浮点数,可选
绝对最小步长,由 Jacobian 近似确定。如果步长小于此值,则优化将成功终止。如果省略,则不使用。
- x_rtol浮点数,可选
相对最小步长。如果省略,则不使用。
- tol_norm函数 (向量) -> 标量,可选
收敛检查中使用的范数。默认为最大范数。
- line_search{None,‘armijo’ (默认值),‘wolfe’},可选
用于确定 Jacobian 近似给定方向中步长的线搜索类型。默认为“armijo”。
- callback函数,可选
可选的回调函数。它在每次迭代时作为
callback(x, f)
调用,其中x 是当前解决方案,f 是相应的残差。
- 返回:
- solndarray
一个数组(与x0 类似的数组类型),包含最终解决方案。
- 引发:
- NoConvergence
未找到解决方案时。
参见
root
多元函数根求解算法的接口。尤其参见
method='excitingmixing'
。