天天看點

HanLP 關鍵詞提取算法分析詳解

l 參考論文:《TextRank: Bringing Order into Texts》

l TextRank算法提取關鍵詞的Java實作

l TextRank算法自動摘要的Java實作這篇文章中作者大概解釋了一下TextRank公式

1. 論文

In this paper, we introduce the TextRank graphbased ranking model for graphs extracted from natural

language texts

TextRank是一個非監督學習算法,它将文本中構造成一個圖,将文本中感興趣的東西(比如分詞)當成一個個頂點,然後應用TextRank算法來抽取文本中的一些資訊。

Such keywords may constitute useful entries for building an automatic index for a document collection, can be used to classify a text, or may serve as a concise summary for a given document.

提取出來的關鍵詞,可用來作為文本分類,或者概括文本的中心思想。

TextRank通過不斷地疊代來提取關鍵詞,每一輪疊代,算法給圖中的頂點打分。直到滿足某個條件(比如說疊代次數克到200次,或者設定的某個參數達到一個門檻值)為止。

For loosely connected graphs, with the number of edges proportional with the number of vertices,

undirected graphs tend to have more gradual convergence curves.

對于稀疏圖而言,邊的數目與頂點的數目成線性關系,對這樣的圖進行關鍵詞提取,有着更平緩的收斂曲線(或者叫收斂得慢吧)

It may be therefore useful to indicate and incorporate into the model the “strength”

of the connection between two vertices $V_i$ and $V_j$ as a weight $w_{ij}$ added to the corresponding edge that connects the two vertices.

有時,圖中頂點之間的關系并不完全平等,比如某些頂點之間關系密切,這裡可用邊的權重來衡量頂點之間的相關性重要程度,而這就是帶權圖模型。

2. 源碼實作 2.1 關鍵詞提取流程

給定若幹個句子,提取關鍵詞。而TextRank算法是 graphbased ranking model,是以需要構造一個圖,要想構造圖,就需要确定圖中的頂點如何構造,于是就把句子進行分詞,将分得的每個詞作為圖中的頂點。

在選取某個詞作為圖的頂點的時候,可以應用一些過濾規則:比如說,去除掉分詞結果中的停用詞、根據詞性來添加頂點(比如隻将名詞和動詞作為圖的頂點)……

The vertices added to the graph can be restricted with syntactic filters, which select only lexical units of a certain part of speech. One can for instance consider only nouns and verbs for addition to the graph, and consequently draw potential edges based only on relations that can be established between nouns and verbs.

在确定好哪些詞作為圖的頂點之後,另一個是确定詞與詞之間的關系,也即:圖中的哪些頂點有邊?比如說設定一個視窗大小,落在這個視窗内的詞,都添加一條邊。

it is the application that dictates the type of relations that are used to draw connections between any two such vertices,

确定了邊的關系後,接下來是确定邊上權值。這個也是根據實際情況而定。

2.2 根據視窗大小确定詞的鄰接點

前面提到,若幹句話分詞之後,得到的一個個的詞,或者叫Term。假設視窗大小為5。解釋一下TextRank算法提取關鍵詞的Java實作文章中提到的如何确定某個Term有哪些鄰接Term。

比如說:'程式員' 這個Term,它在多個句子中出現了,是以分詞結果'程式員' 出現在四個地方:

HanLP 關鍵詞提取算法分析詳解

索引0處:'程式員'的鄰接點有:

英文、programmer、從事、程式

HanLP 關鍵詞提取算法分析詳解

索引9處:'程式員'的鄰接點有:

開發、維護、專業、人員、分為、程式、設計、人員

HanLP 關鍵詞提取算法分析詳解

索引26處,'程式員'的鄰接點有:

中國、軟體、從業人員、分為、進階、程式員、系統分析員、項目經理

HanLP 關鍵詞提取算法分析詳解

索引28處,'程式員'的鄰接點有:

從業人員、分為、程式員、進階、系統分析員、項目經理、四大

結合這四處視窗中的所有的詞,得到'程式員'的鄰接點如下:

HanLP 關鍵詞提取算法分析詳解

是以,當視窗大小設定為5時,Term的前後四個Term都将視為它的鄰接點,并且當這個Term出現多次時,則是将它各次出現位置處的前後4個Term合并,最終作為這個Term的鄰接點。

從這裡可看出:如果某個Term在句子中出現了多次,意味着該Term會比較重要。因為它的鄰接點會比較多,也即有很多其他Term給它投了票。這就有點類似于Term Frequency來衡量Term的重要性。

2.3 得分(score)的更新算法

m.put(key, m.get(key) + d / size * (score.get(element) == null ? 0 : score.get(element)));代碼的解讀:

m.get(key)如果是第一次進入for (String element : value),則是拿到公式前半部分1-d的結果;如果是已經在for (String element : value)進行了疊代,for循環相當于求和:Σvj∈In(vi)Σvj∈In(vi)

for (String element : value) {

    int size = words.get(element).size();

    m.put(key, m.get(key) + d / size * (score.get(element) == null ? 0 : score.get(element)));

}

以”他說的确實在理“ 舉例來說:,選取視窗大小為5,經過分詞并去除停用詞後:

HanLP 關鍵詞提取算法分析詳解

構造的無向圖如下:(每條邊的權值都為1)

HanLP 關鍵詞提取算法分析詳解

以頂點'理'為例,來看一下'理'的得分是如何被更新的。在for (String element : value)一共有兩個頂點對 '理'進行投票,首先是 '确實'頂點,與'确實'頂點鄰接的頂點有兩個,是以:int size = words.get(element).size();中size=2。接下來,來分解一下這行代碼:

m.put(key, m.get(key) + d / size * (score.get(element) == null ? 0 : score.get(element)))

m.get(key)為1-d,因為在外層for循環中,m.put(key, 1 - d)已經公式的前半分部(1-d)存儲了。

score.get(element) == null ? 0 : score.get(element)這個是擷取上一輪疊代的結果。對于初始第一輪疊代而言,score.get(element)為0.8807971,這個值是每個頂點的得分初始值:

          //依據TF來設定初值,  words 代表的是 一張 無向圖

          for (Map.Entry<String, Set<String>> entry : words.entrySet()) {

              score.put(entry.getKey(), sigMoid(entry.getValue().size()));//無向圖的每個頂點 得分值 初始化

          }

score.get(element)相當于公式中的WS(Vj)WS(Vj)

最後來分析一個 size,size是由代碼int size = words.get(element).size()獲得的,由于每條邊權值為1,size其實相當于:ΣVk∈Out(Vj)wjkΣVk∈Out(Vj)wjk。

In('理')={'确實','說'}

當VjVj為'确實'時,Out(Vj)Out(Vj)為{'說','理'},是以:ΣVk∈Out(Vj)wjk=2ΣVk∈Out(Vj)wjk=2。于是,更新頂點'理'的得分:1−d+d∗(1/2)∗0.8807971=0.52433871−d+d∗(1/2)∗0.8807971=0.5243387。然後再通過m.put将臨時結果儲存起來。

接下來,for (String element : value)繼續,此時:VjVj為頂點'說',由于頂點'說'也有兩條鄰接邊,是以有:ΣVk∈Out(Vj)wjk=2ΣVk∈Out(Vj)wjk=2。于是更新頂點'理'的得分:0.5243387+d∗(1/2)∗0.8807971=0.898677470.5243387+d∗(1/2)∗0.8807971=0.89867747。而這就是第一輪疊代時,頂點'理'的得分。

根據上面的1、2中的步驟,for (String element : value)就相當于:ΣVj∈In(Vi)ΣVj∈In(Vi),因為每次都把計算好的結果再put回HashMap m中。

是以,在第一輪疊代中,頂點'理'的得分就是:0.89867747

類似于,經過:max_iter次疊代,或者達到門檻值:

              if (max_diff <= min_diff)

                  break;

時,就不再疊代了。

下面再來對代碼作個總體說明:

這裡是構造無向圖的過程

        for (String w : wordList) {

            if (!words.containsKey(w)) {

                //排除了 wordList 中的重複term, 對每個已去重的term, 用 TreeSet<String> 儲存該term的鄰接頂點

                words.put(w, new TreeSet<String>());

            }

            // 複雜度O(n-1)

            if (que.size() >= 5) {

                //視窗的大小為5,是寫死的. 對于一個term_A而言, 它的前4個term、後4個term 都屬于term_A的鄰接點

                que.poll();

            for (String qWord : que) {

                if (w.equals(qWord)) {

                    continue;

                }

                //既然是鄰居,那麼關系是互相的,周遊一遍即可

                words.get(w).add(qWord);

                words.get(qWord).add(w);

            que.offer(w);

        }

這裡是對圖中每個頂點指派一個初始score過程:

        Map<String, Float> score = new HashMap<String, Float>();//儲存最終每個關鍵詞的得分

        //依據TF來設定初值,  words 代表的是 一張 無向圖

        for (Map.Entry<String, Set<String>> entry : words.entrySet()) {

            score.put(entry.getKey(), sigMoid(entry.getValue().size()));//無向圖的每個頂點 得分值 初始化

接下來,三個for循環:第一個for循環代表疊代次數;第二個for循環代表:對無向圖中每一個頂點計算得分;第三個for循環代表:對某個具體的頂點而言,計算它的每個鄰接點給它的投票權重。

for (int i = 0; i < max_iter; ++i) {

    //....

    for (Map.Entry<String, Set<String>> entry : words.entrySet()) {

        //...

        for (String element : value) {

這樣,就實作了論文中公式:

WS(vi)=(1−d)+d∗ΣVj∈In(Vi)wjiΣVk∈Out(Vj)wjk∗WS(Vj)

而最終提取出來的關鍵詞是:

[理, 确實, 說]

上面隻是用 ”他說的确實在理“ 這句話 示範了TextRank算法的具體細節,在實際應用中可能不合理。因為會存在:

現有統計資訊不足以讓TextRank支援 某個詞 的重要性,算法有局限性。

可見:TextRank提取關鍵詞是受到分詞結果的影響的;其次,也受視窗大小的影響。雖然說代碼是大緻看懂了,但是還是有一些疑問的:比如,為什麼用上面那個公式計算,得分高的詞語就是關鍵詞了?根據TextRank求關鍵詞與Term Frequency求關鍵詞有什麼優勢?選取文本中的哪些詞建立模型作為圖的頂點?基于文本之間的什麼樣的關系作為圖的邊?