scipy.optimize.

broyden1#

scipy.optimize.broyden1(F, xin, iter=None, alpha=None, reduction_method='restart', max_rank=None, verbose=False, maxiter=None, f_tol=None, f_rtol=None, x_tol=None, x_rtol=None, tol_norm=None, line_search='armijo', callback=None, **kw)#

使用 Broyden 第一种雅可比近似法求函数的根。

此方法也称为“Broyden 优良方法”。

参数:
F函数(x) -> f

要查找其根的函数;应接受并返回一个类数组对象。

xin类数组

解的初始猜测

alpha浮点数, 可选

雅可比矩阵的初始猜测是 (-1/alpha)

reduction_method字符串或元组, 可选

用于确保 Broyden 矩阵秩保持较低的方法。可以是表示方法名称的字符串,也可以是形式为 (method, param1, param2, ...) 的元组,其中包含方法名称和附加参数的值。

可用方法

  • restart: 丢弃所有矩阵列。没有额外参数。

  • simple: 丢弃最旧的矩阵列。没有额外参数。

  • svd: 仅保留最重要的 SVD 分量。接受一个额外参数 to_retain,它决定了进行秩约简时要保留的 SVD 分量的数量。默认值为 max_rank - 2

max_rank整型, 可选

Broyden 矩阵的最大秩。默认值为无穷大(即不进行秩约简)。

iter整型, 可选

要执行的迭代次数。如果省略(默认),则执行满足容差所需的所有迭代。

verbose布尔型, 可选

在每次迭代时将状态打印到标准输出。

maxiter整型, 可选

最大迭代次数。如果需要更多迭代才能收敛,则会引发 NoConvergence 异常。

f_tol浮点数, 可选

残差的绝对容差(最大范数)。如果省略,默认值为 6e-6。

f_rtol浮点数, 可选

残差的相对容差。如果省略,则不使用。

x_tol浮点数, 可选

根据雅可比近似确定的绝对最小步长。如果步长小于此值,则优化成功终止。如果省略,则不使用。

x_rtol浮点数, 可选

相对最小步长。如果省略,则不使用。

tol_norm函数(向量) -> 标量, 可选

在收敛检查中使用的范数。默认值为最大范数。

line_search{None, ‘armijo’ (默认), ‘wolfe’}, 可选

用于确定雅可比近似给定方向步长的线搜索类型。默认为 'armijo'。

callback函数, 可选

可选的回调函数。它在每次迭代时以 callback(x, f) 的形式调用,其中 x 是当前解,f 是相应的残差。

返回:
solndarray

包含最终解的数组(与 x0 具有相似数组类型)。

引发:
NoConvergence

未找到解决方案时。

另请参阅

root

多元函数求根算法的接口。特别是请参阅 method='broyden1'

注意

此算法实现了逆雅可比拟牛顿更新

\[H_+ = H + (dx - H df) dx^\dagger H / ( dx^\dagger H df)\]

这对应于 Broyden 的第一个雅可比更新

\[J_+ = J + (df - J dx) dx^\dagger / dx^\dagger dx\]

参考文献

[1]

B.A. van der Rotten, PhD thesis, “A limited memory Broyden method to solve high-dimensional systems of nonlinear equations”. Mathematisch Instituut, Universiteit Leiden, The Netherlands (2003). https://math.leidenuniv.nl/scripties/Rotten.pdf

示例

以下函数定义了一个非线性方程组

>>> def fun(x):
...     return [x[0]  + 0.5 * (x[0] - x[1])**3 - 1.0,
...             0.5 * (x[1] - x[0])**3 + x[1]]

可以通过以下方式获得解决方案。

>>> from scipy import optimize
>>> sol = optimize.broyden1(fun, [0, 0])
>>> sol
array([0.84116396, 0.15883641])