压缩稀疏图例程 (scipy.sparse.csgraph)#

示例:词语阶梯#

词语阶梯是由刘易斯·卡罗尔发明的一种文字游戏,玩家通过每次改变一个字母来寻找单词之间的路径。例如,可以通过以下方式连接“ape”和“man”

\[{\rm ape \to apt \to ait \to bit \to big \to bag \to mag \to man}\]

请注意,每一步都只改变单词的一个字母。这只是从“ape”到“man”的一种可能路径,但它是最短的路径吗?如果我们想要找到两个给定单词之间最短的词语阶梯路径,稀疏图子模块可以提供帮助。

首先,我们需要一个有效的单词列表。许多操作系统都内置了这样的列表。例如,在 Linux 上,通常可以在以下位置找到单词列表

/usr/share/dict
/var/lib/dict

另一个简单的单词来源是互联网上各个网站提供的拼字游戏单词列表(使用您喜欢的搜索引擎搜索)。我们首先创建此列表。系统单词列表由一个文件组成,每行一个单词。应该修改以下内容以使用您可用的特定单词列表

>>> with open('/usr/share/dict/words') as f:
...    word_list = f.readlines()
>>> word_list = map(str.strip, word_list)

我们要查看长度为 3 的单词,因此让我们仅选择那些长度正确的单词。我们还将消除以大写字母开头的单词(专有名词)或包含非字母数字字符(如撇号和连字符)的单词。最后,我们将确保所有内容均为小写字母,以便稍后进行比较

>>> word_list = [word for word in word_list if len(word) == 3]
>>> word_list = [word for word in word_list if word[0].islower()]
>>> word_list = [word for word in word_list if word.isalpha()]
>>> word_list = list(map(str.lower, word_list))
>>> len(word_list)
586    # may vary

现在我们有一个包含 586 个有效三字母单词的列表(确切的数字可能会因所使用的特定列表而异)。这些单词中的每一个都将成为我们图中的一个节点,我们将创建连接与每对仅相差一个字母的单词相关联的节点的边。

有高效的方法可以做到这一点,也有低效的方法可以做到这一点。为了尽可能高效地做到这一点,我们将使用一些复杂的 NumPy 数组操作

>>> import numpy as np
>>> word_list = np.asarray(word_list)
>>> word_list.dtype   # these are unicode characters in Python 3
dtype('<U3')
>>> word_list.sort()  # sort for quick searching later

我们有一个数组,其中每个条目都是三个 Unicode 字符长。我们想找到恰好一个字符不同的所有对。我们将首先将每个单词转换为 3D 向量

>>> word_bytes = np.ndarray((word_list.size, word_list.itemsize),
...                         dtype='uint8',
...                         buffer=word_list.data)
>>> # each unicode character is four bytes long. We only need first byte
>>> # we know that there are three characters in each word
>>> word_bytes = word_bytes[:, ::word_list.itemsize//3]
>>> word_bytes.shape
(586, 3)    # may vary

现在,我们将使用每个点之间的汉明距离来确定哪些单词对是连接的。汉明距离衡量两个向量之间不同的条目的比例:汉明距离等于 \(1/N\) 的任意两个单词,其中 \(N\) 是字母数,在词语阶梯中是连接的

>>> from scipy.spatial.distance import pdist, squareform
>>> from scipy.sparse import csr_matrix
>>> hamming_dist = pdist(word_bytes, metric='hamming')
>>> # there are three characters in each word
>>> graph = csr_matrix(squareform(hamming_dist < 1.5 / 3))

在比较距离时,我们不使用相等,因为这对于浮点值来说可能是不稳定的。只要单词列表中没有两个条目相同,不等式就会产生期望的结果。现在,我们的图已经设置好,我们将使用最短路径搜索来查找图中任意两个单词之间的路径

>>> i1 = word_list.searchsorted('ape')
>>> i2 = word_list.searchsorted('man')
>>> word_list[i1]
'ape'
>>> word_list[i2]
'man'

我们需要检查它们是否匹配,因为如果单词不在列表中,情况并非如此。现在,我们所需要做的就是在图中找到这两个索引之间的最短路径。我们将使用Dijkstra 算法,因为它允许我们只查找一个节点的路径

>>> from scipy.sparse.csgraph import dijkstra
>>> distances, predecessors = dijkstra(graph, indices=i1,
...                                    return_predecessors=True)
>>> print(distances[i2])
5.0    # may vary

因此我们看到,“ape”和“man”之间的最短路径仅包含五个步骤。我们可以使用算法返回的前驱来重建此路径

>>> path = []
>>> i = i2
>>> while i != i1:
...     path.append(word_list[i])
...     i = predecessors[i]
>>> path.append(word_list[i1])
>>> print(path[::-1])
['ape', 'apt', 'opt', 'oat', 'mat', 'man']    # may vary

这比我们的初始示例少三个链接:从“ape”到“man”的路径只有五个步骤。

使用模块中的其他工具,我们可以回答其他问题。例如,是否有三字母单词未在词语阶梯中链接?这是图中连通分量的问题

>>> from scipy.sparse.csgraph import connected_components
>>> N_components, component_list = connected_components(graph)
>>> print(N_components)
15    # may vary

在这个特定的三字母单词样本中,有 15 个连通分量:也就是说,15 个不同的单词集,这些集合之间没有路径。每个集合中有多少个单词?我们可以从组件列表中了解到这一点

>>> [np.sum(component_list == i) for i in range(N_components)]
[571, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]    # may vary

有一个大型连接集和 14 个较小的连接集。让我们看看较小集合中的单词

>>> [list(word_list[np.nonzero(component_list == i)]) for i in range(1, N_components)]
[['aha'],    # may vary
 ['chi'],
 ['ebb'],
 ['ems', 'emu'],
 ['gnu'],
 ['ism'],
 ['khz'],
 ['nth'],
 ['ova'],
 ['qua'],
 ['ugh'],
 ['ups'],
 ['urn'],
 ['use']]

这些是不通过词语阶梯与其他单词连接的所有三字母单词。

我们可能还会好奇哪些单词之间的距离最大。连接哪些两个单词需要最多的链接?我们可以通过计算所有最短路径的矩阵来确定这一点。请注意,按照惯例,两个未连接点之间的距离被报告为无穷大,因此我们需要在找到最大值之前删除这些点

>>> distances, predecessors = dijkstra(graph, return_predecessors=True)
>>> max_distance = np.max(distances[~np.isinf(distances)])
>>> print(max_distance)
13.0    # may vary

因此,至少有一对单词需要 13 步才能从一个单词到达另一个单词!让我们确定这些是什么

>>> i1, i2 = np.nonzero(distances == max_distance)
>>> list(zip(word_list[i1], word_list[i2]))
[('imp', 'ohm'),    # may vary
 ('imp', 'ohs'),
 ('ohm', 'imp'),
 ('ohm', 'ump'),
 ('ohs', 'imp'),
 ('ohs', 'ump'),
 ('ump', 'ohm'),
 ('ump', 'ohs')]

我们看到有两对单词彼此最大程度地分离:一方面是“imp”和“ump”,另一方面是“ohm”和“ohs”。我们可以按照与上述相同的方式找到连接列表

>>> path = []
>>> i = i2[0]
>>> while i != i1[0]:
...     path.append(word_list[i])
...     i = predecessors[i1[0], i]
>>> path.append(word_list[i1[0]])
>>> print(path[::-1])
['imp', 'amp', 'asp', 'ass', 'ads', 'add', 'aid', 'mid', 'mod', 'moo', 'too', 'tho', 'oho', 'ohm']    # may vary

这为我们提供了我们想要看到的路径。

词语阶梯只是 scipy 稀疏矩阵快速图算法的一个潜在应用。图论在数学、数据分析和机器学习的许多领域中都有应用。稀疏图工具足够灵活,可以处理许多这种情况。