压缩稀疏图例程 (scipy.sparse.csgraph)#

示例:单词梯子#

一个 单词梯子 是由刘易斯·卡罗尔发明的文字游戏,玩家通过一次改变一个字母来找到单词之间的路径。例如,可以这样连接“ape”和“man”

\[{\rm ape \to apt \to ait \to bit \to big \to bag \to mag \to man}\]

请注意,每一步都只改变单词中的一个字母。这只是从“ape”到“man”的一种可能的路径,但它是最短的路径吗?如果我们希望找到两个给定单词之间最短的单词梯子路径,稀疏图子模块可以提供帮助。

首先,我们需要一个有效的单词列表。许多操作系统都内置了这样的列表。例如,在 Linux 上,单词列表通常可以在以下位置找到:

/usr/share/dict
/var/lib/dict

另一个简单的单词来源是互联网上各种网站提供的拼字游戏单词列表(使用你喜欢的搜索引擎搜索)。我们将首先创建此列表。系统单词列表包含一个文件,每行一个单词。以下内容应修改为使用您可用的特定单词列表

>>> with open('/usr/share/dict/words') as f:
...    word_list = f.readlines()
>>> word_list = map(str.strip, word_list)

我们想查看长度为 3 的单词,所以让我们只选择那些长度正确的单词。我们还将删除以大写字母开头的单词(专有名词)或包含非字母数字字符的单词,例如撇号和连字符。最后,我们将确保所有内容都小写,以便稍后进行比较

>>> word_list = [word for word in word_list if len(word) == 3]
>>> word_list = [word for word in word_list if word[0].islower()]
>>> word_list = [word for word in word_list if word.isalpha()]
>>> word_list = list(map(str.lower, word_list))
>>> len(word_list)
586    # may vary

现在我们有了一个包含 586 个有效三字母单词的列表(确切的数字可能会根据使用的特定列表而有所不同)。这些单词中的每一个都将成为我们图中的一个节点,我们将创建连接与每个单词对相关的节点的边,这些单词对只相差一个字母。

有很多有效的方法可以做到这一点,也有很多无效的方法可以做到这一点。为了尽可能有效地做到这一点,我们将使用一些复杂的 numpy 数组操作

>>> import numpy as np
>>> word_list = np.asarray(word_list)
>>> word_list.dtype   # these are unicode characters in Python 3
dtype('<U3')
>>> word_list.sort()  # sort for quick searching later

我们有一个数组,其中每个条目都是三个 Unicode 字符。我们想找到所有恰好有一个字符不同的对。我们将从将每个单词转换为一个 3 维向量开始

>>> word_bytes = np.ndarray((word_list.size, word_list.itemsize),
...                         dtype='uint8',
...                         buffer=word_list.data)
>>> # each unicode character is four bytes long. We only need first byte
>>> # we know that there are three characters in each word
>>> word_bytes = word_bytes[:, ::word_list.itemsize//3]
>>> word_bytes.shape
(586, 3)    # may vary

现在,我们将使用每个点之间的汉明距离来确定哪些单词对是连接的。汉明距离衡量两个向量之间不同的条目所占的比例:任何两个汉明距离等于\(1/N\)的单词,其中\(N\)是字母的数量,在单词梯子中是连接的

>>> from scipy.spatial.distance import pdist, squareform
>>> from scipy.sparse import csr_matrix
>>> hamming_dist = pdist(word_bytes, metric='hamming')
>>> # there are three characters in each word
>>> graph = csr_matrix(squareform(hamming_dist < 1.5 / 3))

在比较距离时,我们不使用等式,因为这对于浮点数来说可能不稳定。只要单词列表中没有两个条目相同,不等式就会产生预期的结果。现在,我们的图已经建立起来了,我们将使用最短路径搜索来查找图中任意两个单词之间的路径。

>>> i1 = word_list.searchsorted('ape')
>>> i2 = word_list.searchsorted('man')
>>> word_list[i1]
'ape'
>>> word_list[i2]
'man'

我们需要检查这些是否匹配,因为如果单词不在列表中,情况就不会如此。现在,我们只需要找到图中这两个索引之间的最短路径。我们将使用 Dijkstra 算法,因为它允许我们仅为一个节点找到路径。

>>> from scipy.sparse.csgraph import dijkstra
>>> distances, predecessors = dijkstra(graph, indices=i1,
...                                    return_predecessors=True)
>>> print(distances[i2])
5.0    # may vary

因此,我们看到“ape”和“man”之间的最短路径只包含五个步骤。我们可以使用算法返回的前驱来重建这条路径。

>>> path = []
>>> i = i2
>>> while i != i1:
...     path.append(word_list[i])
...     i = predecessors[i]
>>> path.append(word_list[i1])
>>> print(path[::-1])
['ape', 'apt', 'opt', 'oat', 'mat', 'man']    # may vary

这比我们最初的示例少三个链接:从“ape”到“man”的路径只有五个步骤。

使用模块中的其他工具,我们可以回答其他问题。例如,是否存在三个字母的单词在单词梯子中没有链接?这是一个关于图中连通分量的問題。

>>> from scipy.sparse.csgraph import connected_components
>>> N_components, component_list = connected_components(graph)
>>> print(N_components)
15    # may vary

在这个特定的三个字母单词样本中,有 15 个连通分量:也就是说,有 15 个不同的单词集,这些单词集之间没有路径。每个集合中有多少个单词?我们可以从分量列表中了解这一点。

>>> [np.sum(component_list == i) for i in range(N_components)]
[571, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]    # may vary

有一个大型连通集和 14 个较小的连通集。让我们看看较小的连通集中的单词。

>>> [list(word_list[np.nonzero(component_list == i)]) for i in range(1, N_components)]
[['aha'],    # may vary
 ['chi'],
 ['ebb'],
 ['ems', 'emu'],
 ['gnu'],
 ['ism'],
 ['khz'],
 ['nth'],
 ['ova'],
 ['qua'],
 ['ugh'],
 ['ups'],
 ['urn'],
 ['use']]

这些都是所有不能通过单词梯子连接到其他单词的三个字母单词。

我们可能也想知道哪些单词是最大分离的。哪些两个单词需要最多的链接才能连接?我们可以通过计算所有最短路径的矩阵来确定这一点。请注意,按照惯例,两个非连接点的距离被报告为无穷大,因此我们需要在找到最大值之前删除它们。

>>> distances, predecessors = dijkstra(graph, return_predecessors=True)
>>> max_distance = np.max(distances[~np.isinf(distances)])
>>> print(max_distance)
13.0    # may vary

因此,至少有一对单词需要 13 步才能从一个单词到另一个单词!让我们确定它们是哪些。

>>> i1, i2 = np.nonzero(distances == max_distance)
>>> list(zip(word_list[i1], word_list[i2]))
[('imp', 'ohm'),    # may vary
 ('imp', 'ohs'),
 ('ohm', 'imp'),
 ('ohm', 'ump'),
 ('ohs', 'imp'),
 ('ohs', 'ump'),
 ('ump', 'ohm'),
 ('ump', 'ohs')]

我们看到,有两对单词彼此最大分离:“imp”和“ump”一方面,“ohm”和“ohs”另一方面。我们可以用与上面相同的方式找到连接列表。

>>> path = []
>>> i = i2[0]
>>> while i != i1[0]:
...     path.append(word_list[i])
...     i = predecessors[i1[0], i]
>>> path.append(word_list[i1[0]])
>>> print(path[::-1])
['imp', 'amp', 'asp', 'ass', 'ads', 'add', 'aid', 'mid', 'mod', 'moo', 'too', 'tho', 'oho', 'ohm']    # may vary

这给了我们我们想要看到的路径。

单词梯子只是 scipy 用于稀疏矩阵的快速图算法的一个潜在应用。图论在数学、数据分析和机器学习的许多领域都有应用。稀疏图工具足够灵活,可以处理这些情况中的许多情况。