scipy.sparse.linalg.
cgs#
- scipy.sparse.linalg.cgs(A, b, x0=None, *, rtol=1e-05, atol=0.0, maxiter=None, M=None, callback=None)[源代码]#
使用共轭梯度平方迭代法求解
Ax = b
。- 参数:
- A{稀疏数组, ndarray, LinearOperator}
线性系统的实值 N x N 矩阵。或者,A 可以是一个线性算子,它可以使用例如
scipy.sparse.linalg.LinearOperator
生成Ax
。- bndarray
线性系统的右侧。形状为 (N,) 或 (N,1)。
- x0ndarray
解的起始猜测。
- rtol, atolfloat, 可选
收敛测试的参数。为了收敛,应满足
norm(b - A @ x) <= max(rtol*norm(b), atol)
。默认值是atol=0.
和rtol=1e-5
。- maxiter整数
最大迭代次数。即使未达到指定的容差,迭代也会在 maxiter 步后停止。
- M{稀疏数组, ndarray, LinearOperator}
A
的预处理器。它应该近似于 A 的逆矩阵(请参阅“注释”)。有效的预处理可以显著提高收敛速度,这意味着需要更少的迭代才能达到给定的误差容限。- callback函数
用户提供的函数,在每次迭代后调用。它被调用为
callback(xk)
,其中xk
是当前解向量。
- 返回:
- xndarray
收敛的解。
- info整数
- 提供收敛信息
0 : 成功退出 >0 : 未达到容差的收敛,迭代次数 <0 : 参数分解
注释
预处理器 M 应该是一个矩阵,使得
M @ A
的条件数小于 A,请参阅 [1]。参考文献
[1]“预处理器”,维基百科,https://en.wikipedia.org/wiki/Preconditioner
[2]“共轭梯度平方”,维基百科,https://en.wikipedia.org/wiki/Conjugate_gradient_squared_method
示例
>>> import numpy as np >>> from scipy.sparse import csc_array >>> from scipy.sparse.linalg import cgs >>> R = np.array([[4, 2, 0, 1], ... [3, 0, 0, 2], ... [0, 1, 1, 1], ... [0, 2, 1, 0]]) >>> A = csc_array(R) >>> b = np.array([-1, -0.5, -1, 2]) >>> x, exit_code = cgs(A, b) >>> print(exit_code) # 0 indicates successful convergence 0 >>> np.allclose(A.dot(x), b) True