scipy.sparse.linalg.

lgmres#

scipy.sparse.linalg.lgmres(A, b, x0=None, *, rtol=1e-05, atol=0.0, maxiter=1000, M=None, callback=None, inner_m=30, outer_k=3, outer_v=None, store_outer_Av=True, prepend_outer_v=False)[源代码]#

使用 LGMRES 算法求解矩阵方程。

LGMRES 算法 [1] [2] 旨在避免重启 GMRES 中收敛的一些问题,并且通常在更少的迭代次数内收敛。

参数:
A{稀疏数组,ndarray,线性算子}

线性系统的实数或复数 N×N 矩阵。 或者,A 可以是一个线性算子,可以使用例如 scipy.sparse.linalg.LinearOperator 生成 Ax

bndarray

线性系统的右侧。 形状为 (N,) 或 (N,1)。

x0ndarray

解的起始猜测。

rtol, atolfloat,可选

收敛测试的参数。 对于收敛,应满足 norm(b - A @ x) <= max(rtol*norm(b), atol)。 默认值为 rtol=1e-5atol 的默认值为 0.0

maxiterint,可选

最大迭代次数。 即使未达到指定的容差,迭代也会在 maxiter 步后停止。

M{稀疏数组,ndarray,线性算子},可选

A 的预处理器。 预处理器应近似 A 的逆。 有效的预处理会显着提高收敛速度,这意味着需要更少的迭代才能达到给定的误差容限。

callback函数,可选

用户提供的函数,在每次迭代后调用。 它作为 callback(xk) 调用,其中 xk 是当前解向量。

inner_mint,可选

每次外部迭代的内部 GMRES 迭代次数。

outer_kint,可选

在内部 GMRES 迭代之间携带的向量数。 根据 [1],较好的值在 1…3 的范围内。 但是,请注意,如果您想使用额外的向量来加速解决多个类似的问题,则较大的值可能会有益。

outer_v元组列表,可选

包含向量的元组 (v, Av) 和相应的矩阵向量乘积的列表,用于增强 Krylov 子空间,并在内部 GMRES 迭代之间携带。 如果应重新评估矩阵向量乘积,则元素 Av 可以为 None。 此参数由 lgmres 就地修改,并且可以在解决类似问题时用于传入和传出算法的“猜测”向量。

store_outer_Avbool,可选

LGMRES 是否应在 outer_v 列表中存储 A@v 以及向量 v。 默认值为 True。

prepend_outer_vbool,可选

是否将 outer_v 增强向量放在 Krylov 迭代之前。 在标准 LGMRES 中,prepend_outer_v=False。

返回:
xndarray

收敛的解。

infoint

提供收敛信息

  • 0 : 成功退出

  • >0 : 未达到容差的收敛,迭代次数

  • <0 : 非法输入或崩溃

注释

LGMRES 算法 [1] [2] 旨在避免由于交替残差向量而导致重启 GMRES 中的收敛速度减慢。 通常,它在某种程度上通常优于具有可比内存要求的 GMRES(m),或者至少不会差太多。

此算法的另一个优点是,您可以向其提供 outer_v 参数中的“猜测”向量,以增强 Krylov 子空间。 如果解位于这些向量的跨度附近,则算法收敛速度更快。 如果需要一个接一个地反转几个非常相似的矩阵,例如在牛顿-克雷洛夫迭代中,其中雅可比矩阵在非线性步骤中通常变化不大,这可能会很有用。

参考文献

[1] (1,2,3)

A.H. Baker 和 E.R. Jessup 和 T. Manteuffel,“一种加速重启 GMRES 收敛的技术”,SIAM J. Matrix Anal。应用。 26, 962 (2005)。

[2] (1,2)

A.H. Baker,“关于改进线性求解器重启 GMRES 的性能”,博士论文,科罗拉多大学 (2003)。

示例

>>> import numpy as np
>>> from scipy.sparse import csc_array
>>> from scipy.sparse.linalg import lgmres
>>> A = csc_array([[3, 2, 0], [1, -1, 0], [0, 5, 1]], dtype=float)
>>> b = np.array([2, 4, -1], dtype=float)
>>> x, exitCode = lgmres(A, b, atol=1e-5)
>>> print(exitCode)            # 0 indicates successful convergence
0
>>> np.allclose(A.dot(x), b)
True