HITS算法--从原理到实现

转载请注明出处:http://blog.csdn.net/rubinorth/article/details/52231620

本文介绍HITS算法的相关内容。


1. 算法来源

1999年,Jon Kleinberg 提出了HITS算法。作为几乎是与PageRank同一时期被提出的算法,HITS同样以更精确的搜索为目的,并到今天仍然是一个优秀的算法。

HITS算法的全称是Hyperlink-Induced Topic Search。在HITS算法中,每个页面被赋予两个属性:hub属性和authority属性。同时,网页被分为两种:hub页面和authority页面。hub,中心的意思,所以hub页面指那些包含了很多指向authority页面的链接的网页,比如国内的一些门户网站;authority页面则指那些包含有实质性内容的网页。HITS算法的目的是:当用户查询时,返回给用户高质量的authority页面。


2. 算法原理

很多算法都是建立在一些假设之上的,HITS算法也不例外。HITS算法基于下面两个假设1

  • 一个高质量的authority页面会被很多高质量的hub页面所指向。
  • 一个高质量的hub页面会指向很多高质量的authority页面。

什么叫“高质量”,这由每个页面的hub值和authority值确定。其确定方法为:

  • 页面hub值等于所有它指向的页面的authority值之和。
  • 页面authority值等于所有指向它的页面的hub值之和。

为了让大家快速理解HITS算法,先举一个简单的例子2

hits1

图中共有3个网页,它们构成了一个有向图。我们设每个网页的初始hub值和authority值都为1。记 h(p) 为页面 p 的hub值,a(p)为页面 p 的authority值。则有h(1)=h(2)=h(3)=1 a(1)=a(2)=a(3)=1

HITS算法的计算过程也是一个迭代的过程。在第一次迭代中,有:

a(1)=0,a(2)=0,a(3)=h(1)+h(2)=212h(1)=a(3)=2,h(2)=a(3)=2,h(3)=03

这里就已经可以看出网页3是一个相对好的authority页面,而网页1和网页2是相对好的hub页面。其实到这里迭代也可以结束了,因为再迭代下去无非是 a(3) h(1) h(2) 的值不断增大,而哪个是hub页面,哪个是authority页面并不会改变。

上面的简单例子只是为了帮助理解,省略掉了很多步骤和细节。下面将详细地介绍HITS算法3:。

与PageRank算法不同,HITS算法是在用户搜索后运行的,所以HITS算法的处理对象集合肯定得小很多。

首先,我们需要确定这个集合。整个互联网中的网页之间的关系可以抽象为一个有向图 G=(V,E) ,当有一个搜索请求产生时(不妨设关键字为 σ ),我们可以取所有包含关键字 σ 的网页组成的集合 Qσ 为初始集合,并在这个集合上运行我们的HITS算法。然而,这个集合却有着明显的缺陷:这个集合可能非常之大,大到包含了数百万个网页,而这显然不是理想的集合大小。于是,我们进而想找到一个更小的集合 Sσ ,满足以下条件:

  1. Sσ 确实足够小。
  2. Sσ 包含很多与查询相关的页面。
  3. Sσ 包含很多高质量的authority页面。

如何找到这个 Sσ 集合?我们假设用户输入关键字搜索,搜索引擎使用一个基于文本的引擎进行搜索。然后我们取排名(按照相关度排名)最靠前的t(t一般取200左右)个网页作为初始集合,记为根集合 Rσ 。这个集合满足我们上面提到的前两个条件,但是还远远不能满足第三个条件。

于是,我们需要扩展 Rσ 。一般认为,一个与关键字相关的高质量的网页即使不在 Rσ 中,那也很可能在 Rσ 中有某些网页指向它。基于此,我们扩展 Rσ 的过程如下(摘自Jon Kleinberg 的论文):

Subgraph( σ , ψ , t, d)
   σ : a query string.
   ψ : a text-based search engine.
  t, d: natural numbers.

  Let Rσ denote the top t results of ψ on σ .
  Set Sσ := Rσ

  For each page p Rσ
    Let Γ+(p) denote the set of all pages p points to.
    Let Γ(p) denote the set of all pages pointing to p.
    Add all pages in Γ+(p) to Sσ .
    If |Γ(p)|d , then
      Add all pages in Γ(p) to Sσ .
    Else
      Add an arbitrary set of d pages from Γ(p) to Sσ .
  End
  Return Sσ

一开始我们令 Sσ = Rσ 。然后通过上面的方法,我们将所有被 Rσ 中网页所指向的网页加入到 Sσ 中,再把一定数量的指向 Rσ 集合中网页的那些网页(每个 Rσ 中网页最多能添加d个指向它的网页)加入到 Sσ 中。为了保证 Sσ 集合的合适的大小,d不能太大,一般设置为50左右。通常情况下,扩展之后集合的大小为1000~5000个网页,满足上面的三个条件。

在计算hub值和authority值之前,我们还需要对 Sσ 进行一下处理。我们把同一个“域名”(域名指一个网站)下的网页之间的链接全部删除,因为通常这些链接只是为了让人能在这个网站下的不同网页之间进行切换,例如网站内的导航链接。在HITS算法中,这些链接与不同网站之间的链接相比,肯定是后者更能体现hub值和authority值的传递关系。所以我们在 Sσ 集合中删除这些链接,形成新集合 Gσ

现在,就可以开始计算hub值和authority值了4。我们用 h(p) 表示页面 p 的hub值,a(p)表示页面 p 的authority值。首先令每个页面的初始hub值h(p)为1,初始authority值 a(p) 也为1。然后就开始迭代计算的过程(n为 Gσ 中总的网页数):

p,a(p)=i=1nh(i),p,h(p)=i=1na(i)

每一轮迭代结束,都需要进行标准化,使 ni=1h(i)2=ni=1a(i)2=1 。标准化的必要性将在算法证明部分解释。

什么时候迭代结束呢?我们可以设置一个迭代次数上限k来控制,或者设定一个阈值,当变化小于阈值的时候迭代结束。然后只要返回给用户authority值靠前的十几个网页就行了。

好了,HITS算法的原理其实就这么点,十分通俗易懂。


3. 算法证明

上面说到如何控制迭代的终止,而这又有个前提条件,那就是经过不断的迭代,每个网页的hub值和authority值最终会收敛。下面我们就来证明HITS算法的收敛性。

为了证明的方便,我们用矩阵的方式来表示HITS算法。

对于初始集合 Gσ ,用一个矩阵 M 表示Gσ中网页之间的关系: mij=1 表示网页 i 指向网页j,否则为0。用向量 H 表示所有页面的hub值,其中第i个分量表示网页i的hub值;用向量A表示所有页面的authority值,其中第i个分量表示网页i的authority值。所有页面的hub值和authority值初始都为1。例如上面算法原理的例子中的图就可以表示为:

M=000000110

然后可以计算:

A=MTH=001001000111=002,H=MA=000000110002=220

一般的,我们有:

Ak=MTHk1,Hk=MAk(AkAkHk)

更进一步,有:

Ak=(MTM)k1MTZ,Hk=(MMT)kZ(Z1)

在这里我们引用一些线性代数的知识:

定理1
一个矩阵与该矩阵的转置的乘积是对称矩阵。
定理2
实对称矩阵的特征值都是实数,且若矩阵大小为n * n,则其必有n个实特征值(包含重根)。
定理3
含有n个特征值的n阶矩阵,其主对角线元素之和等于其特征值之和。
定义1
对于实数矩阵,绝对值最大的特征值称为主特征值,对应的特征向量称为主特征向量。
定理4
如果一个实对称矩阵是非负矩阵,则其主特征向量也是非负的,并且是非0向量。
定理5
W 为一个n*n实对称矩阵,v是一个n维向量且与 W 的主特征向量ωw非正交,则一个n维单位向量将沿着 Wkv 的方向收敛至 ωw

由定理1可知上面的 MTM MMT 都是对称矩阵,且由定理2可知都有n个实特征值。

Hk=(MMT)kZ 中, Z MTM的主特征向量非正交,所以 H 向量最终将收敛至MTM的主特征向量。定理5中的单位向量指的就是 H 向量,为了保证其每轮迭代时都是一个单位向量,我们在每次迭代之后都对其进行标准化

Ak=(MTM)k1MTZ中, MTZ MTM 的主特征向量非正交。证明如下(这部分证明在 Jon Kleinberg 的原论文中省略了,自行证明,仅供参考):

MTZMTMωw:(MTZ)Tωw=0(ZTM)ωw=0ZT(Mωw)=0MωwMωw

我们只要再证 Mωw 不是 0 矩阵,就可以推翻我们的假设了。因为ZT的所有分量都为1,所以 ZT 与非负且非0矩阵的内积一定不为0。在进一步证明之前,我们先证 MTMλw0

mijMijM=m11mn1mijm1nmnn,MT=m11m1nmjimn1mnnMTM线wii=j=1nm2jiM0wii0MTM线023线MTM0MTMλw0

下面证明 Mωw 不是 0 矩阵:

ωwMTMMTMωw=λwωwλwMωw0MTMωw=0λwωw=0λw0ωwλwωw0Mωw0

再结合上面的结论: Mωw ,即可得出: Mωw 是非负矩阵且不是 0 矩阵。

所以上面的假设:MTZMTMωw 不成立。所以 MTZ MTM 的主特征向量非正交。也即 A 向量最终将收敛至MTM的主特征向量。同样的,为了保证其每轮迭代时都是一个单位向量,我们在每次迭代之后都对其进行标准化

至此,我们便证明了HITS算法的收敛性。


4. 算法实现

下面的代码原理与我的另一篇博客PageRank相似。

4.1 基于迭代法的简单实现

用python实现,需要先安装python-graph-core。

class HITSIterator:
    __doc__ = '''计算一张图中的hub,authority值'''

    def __init__(self, dg):
        self.max_iterations = 100  # 最大迭代次数
        self.min_delta = 0.0001  # 确定迭代是否结束的参数
        self.graph = dg

        self.hub = {}
        self.authority = {}
        for node in self.graph.nodes():
            self.hub[node] = 1
            self.authority[node] = 1

    def hits(self):
        """
        计算每个页面的hub,authority值
        :return:
        """
        if not self.graph:
            return

        flag = False
        for i in range(self.max_iterations):
            change = 0.0  # 记录每轮的变化值
            norm = 0  # 标准化系数
            tmp = {}
            # 计算每个页面的authority值
            tmp = self.authority.copy()
            for node in self.graph.nodes():
                self.authority[node] = 0
                for incident_page in self.graph.incidents(node):  # 遍历所有“入射”的页面
                    self.authority[node] += self.hub[incident_page]
                norm += pow(self.authority[node], 2)
            # 标准化
            norm = sqrt(norm)
            for node in self.graph.nodes():
                self.authority[node] /= norm
                change += abs(tmp[node] - self.authority[node])

            # 计算每个页面的hub值
            norm = 0
            tmp = self.hub.copy()
            for node in self.graph.nodes():
                self.hub[node] = 0
                for neighbor_page in self.graph.neighbors(node):  # 遍历所有“出射”的页面
                    self.hub[node] += self.authority[neighbor_page]
                norm += pow(self.hub[node], 2)
            # 标准化
            norm = sqrt(norm)
            for node in self.graph.nodes():
                self.hub[node] /= norm
                change += abs(tmp[node] - self.hub[node])

            print("This is NO.%s iteration" % (i + 1))
            print("authority", self.authority)
            print("hub", self.hub)

            if change < self.min_delta:
                flag = True
                break
        if flag:
            print("finished in %s iterations!" % (i + 1))
        else:
            print("finished out of 100 iterations!")

        print("The best authority page: ", max(self.authority.items(), key=lambda x: x[1]))
        print("The best hub page: ", max(self.hub.items(), key=lambda x: x[1]))


if __name__ == '__main__':
    dg = digraph()

    dg.add_nodes(["A", "B", "C", "D", "E"])

    dg.add_edge(("A", "C"))
    dg.add_edge(("A", "D"))
    dg.add_edge(("B", "D"))
    dg.add_edge(("C", "E"))
    dg.add_edge(("D", "E"))
    dg.add_edge(("B", "E"))
    dg.add_edge(("E", "A"))

    hits = HITSIterator(dg)
    hits.hits()

程序中给出的网页之间的关系如下:

hits2

运行结果如下:

This is NO.9 iteration
authority {'E': 0.7886751345855355, 'C': 0.2113248654398108, 'B': 0.0, 'A': 7.119870133749228e-06, 'D': 0.5773502691457247}
hub {'E': 3.6855159786102477e-06, 'C': 0.40824829046663563, 'B': 0.7071067811721405, 'A': 0.40824829046663563, 'D': 0.40824829046663563}
finished in 9 iterations!
The best authority page:  ('E', 0.7886751345855355)
The best hub page:  ('B', 0.7071067811721405)

4.2 MapReduce实现

MapReduce是一个高效的分布式计算框架,在这里就不多做介绍了(若还不怎么了解MapReduce可以参考我另一篇博客PageRank,里面有简单的原理介绍和代码展示)。

下面是实现HITS算法的类,其中注释较为详细,就不多做解释了:

class HITSMapReduce:
    __doc__ = '''计算一张图中的hub,authority值'''

    def __init__(self, dg):
        self.max_iterations = 100  # 最大迭代次数
        self.min_delta = 0.0001  # 确定迭代是否结束的参数

        # graph表示整个网络图。是字典类型。
        # graph[i][authority][0] 存放第i网页的authority值
        # graph[i][authority][1] 存放第i网页的入链网页,是一个列表
        # graph[i][hub][0] 存放第i网页的hub值
        # graph[i][hub][1] 存放第i网页的出链网页,是一个列表
        self.graph = {}
        for node in dg.nodes():
            self.graph[node] = {"authority": [1, dg.incidents(node)], "hub": [1, dg.neighbors(node)]}

    @staticmethod
    def normalize(ah_list):
        """
        标准化
        :param ah_list: 一个列表,其元素为(网页名,数值)
        :return: 返回一个标准化的列表,其元素为(网页名,标准化的数值)
        """
        norm = 0
        for ah in ah_list:
            norm += pow(ah[1], 2)

        norm = sqrt(norm)
        return [(ah[0], ah[1] / norm) for ah in ah_list]

    def hits_authority_mapper(self, input_key, input_value):
        """
        用于计算每个页面能获得的hub值,这个hub值将传递给页面的authority值
        :param input_key: 网页名,如 A
        :param input_value: self.graph[input_key],即这个网页的相关信息,包含两个字典,{a...}和{h...}
        :return: [(网页名, 0.0), (出链网页1, A的hub值), (出链网页2, A的hub值)...]
        """
        return [(input_key, 0.0)] + \
               [(out_link, input_value["hub"][0]) for out_link in input_value["hub"][1]]

    def hits_hub_mapper(self, input_key, input_value):
        """
        用于计算每个页面能获得的authority值,这个authority值将传递给页面的hub值
        :param input_key: 网页名,如 A
        :param input_value: self.graph[input_key],即这个网页的相关信息,包含两个字典,{a...}和{h...}
        :return: [(网页名, 0.0), (入链网页1, A的authority值), (入链网页2, A的authority值)...]
        """
        return [(input_key, 0.0)] + \
               [(in_link, input_value["authority"][0]) for in_link in input_value["authority"][1]]

    def hits_reducer(self, intermediate_key, intermediate_value_list):
        """
        统计每个网页获得的authority或hub值
        :param intermediate_key: 网页名,如 A
        :param intermediate_value_list: A所有获得的authority值或hub值的列表:[0.0,获得的值,获得的值...]
        :return: (网页名,计算所得的authority值或hub值)
        """
        return intermediate_key, sum(intermediate_value_list)

    def hits(self):
        """
        计算authority值与hub值,各需要调用一次mapreduce模块
        :return: self.graph,其中的 authority值与hub值 已经计算好
        """
        iteration = 1  # 迭代次数
        change = 1  # 记录每轮迭代后的PR值变化情况,初始值为1保证至少有一次迭代
        while change > self.min_delta:
            print("Iteration: " + str(iteration))

            # 计算每个页面的authority值并标准化
            # new_authority为一个列表,元素为:(网页名,此轮迭代所得的authority值)
            new_authority = HITSMapReduce.normalize(
                MapReduce.map_reduce(self.graph, self.hits_authority_mapper, self.hits_reducer))

            # 计算每个页面的hub值并标准化
            # new_hub为一个列表,元素为:(网页名,此轮迭代所得的hub值)
            new_hub = HITSMapReduce.normalize(
                MapReduce.map_reduce(self.graph, self.hits_hub_mapper, self.hits_reducer))

            # 计算此轮 authority值+hub值 的变化情况
            change = sum(
                [abs(new_authority[i][1] - self.graph[new_authority[i][0]]["authority"][0]) for i in range(len(self.graph))])
            change += sum(
                [abs(new_hub[i][1] - self.graph[new_hub[i][0]]["hub"][0]) for i in range(len(self.graph))])
            print("Change: " + str(change))

            # 更新authority值与hub值
            for i in range(len(self.graph)):
                self.graph[new_authority[i][0]]["authority"][0] = new_authority[i][1]
                self.graph[new_hub[i][0]]["hub"][0] = new_hub[i][1]

            iteration += 1
        return self.graph

下面是一个测试用例:

if __name__ == '__main__':
    dg = digraph()

    dg.add_nodes(["A", "B", "C", "D", "E"])

    dg.add_edge(("A", "C"))
    dg.add_edge(("A", "D"))
    dg.add_edge(("B", "D"))
    dg.add_edge(("C", "E"))
    dg.add_edge(("D", "E"))
    dg.add_edge(("B", "E"))
    dg.add_edge(("E", "A"))

    h = HITSMapReduce(dg)
    hits_result = h.hits()

    print("The final iteration result is")
    for key, value in hits_result.items():
        print(key + " authority: ", value["authority"][0], " hub: ", value["hub"][0])

    max_authority_page = max(hits_result.items(), key=lambda x: x[1]["authority"][0])
    max_hub_page = max(hits_result.items(), key=lambda x: x[1]["hub"][0])
    print("The best authority page: ", (max_authority_page[0], max_authority_page[1]["authority"][0]))
    print("The best hub page: ", (max_hub_page[0], max_hub_page[1]["hub"][0]))

运行结果为:

The final iteration result is
E authority:  0.7886751345948128  hub:  8.64738646858812e-10
A authority:  7.060561487452559e-10  hub:  0.408267180858587
C authority:  0.2113248654051872  hub:  0.40823884510260666
B authority:  0.0  hub:  0.7071067809972986
D authority:  0.5773502691896258  hub:  0.40823884510260666
The best authority page:  ('E', 0.7886751345948128)
The best hub page:  ('B', 0.7071067809972986)

以上便是HITS算法的MapReduce实现。


5. HITS算法的缺点

  • 计算效率低

这里说的“效率低”是针对其实时计算的特点而提出的。HITS算法是在用户提出搜索请求之后才开始运行的,然而计算出结果又需要多次迭代计算,所以就这点上来说HITS算法效率仍然较低。

  • 主题漂移

在算法原理部分我们介绍了HITS算法是如何生成初始集合 Gσ 。从根集合 Rσ 我们通过链接添加网页的方法进行扩展,但这也很可能添加进与搜索主题无关的网页。若是这部分网页中又恰恰有着一些高质量的authority页面,则很有可能返回给用户,降低用户的搜索体验。

  • 作弊网页

试想我们弄一个页面指向很多高质量的authority页面,那么这个页面就成为了一个高质量的hub页面。然后再弄个链接指向自己的搓网页,按照HITS算法,将大大提升自己的搓网页的authority值。

  • 稳定性差

对于一个网页集合,若是删除其中的某条链接,就有可能造成一些网页的hub值和authority值发生巨大变化。


6. 写在最后

以后想到什么再写上来吧。


参考资料


  1. 《这就是搜索引擎:核心技术详解》,张俊林
  2. The Mathematics of Web Search,这个网站上有HITS和PageRank的一些数学知识。
  3. 原论文:Authoritative Sources in a Hyperlinked Environment
  4. “标准参考文献”:维基百科
  • 26
    点赞
  • 148
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
"untranslate_hits"是OpenAI GPT-3的一个概念,意为未翻译命中。在机器翻译过程中,当翻译系统不能正确翻译源文中的某些词语或短语时,这些未翻译的部分就被称为untranslate_hits。 untranslate_hits的存在可能由于以下几个原因:首先,源文中可能出现了一些特定领域或指代的专业术语,这些词语翻译系统无法准确理解或找到相应翻译。其次,untranslate_hits也可能是由于源文与目标语言之间的语义差异造成的。由于语言之间的差异,一些表达方式或者文化特色在翻译过程中难以准确翻译。最后,翻译系统本身的限制也可能导致未翻译命中。尽管现代机器翻译水平较高,但在面对一些复杂的句子结构、多义词以及语法等问题时,仍然会产生一定的未翻译现象。 为了提高机器翻译的质量,人们致力于解决untranslate_hits问题。一种方法是通过引入更多的训练数据来拓宽翻译系统的知识库,以便更好地理解语义和专业术语。另一种方法是改进翻译模型的架构和算法,使其能够更好地处理复杂的句子结构和多义词。此外,结合人工智能技术与人工翻译的优势,进行人机协作的翻译方式也是一种有效的解决方案。综上所述,解决untranslate_hits问题是一个持续的研究领域,并且在未来随着技术的进步和不断的实践经验积累,我们有望进一步提高机器翻译的质量和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值