40 行代码搞定主题词提取

2018-06-25  本文已影响70人  Pope怯懦懦地

大家都知道,做中文搜索🔍,得先搞定中文分词。突然意识到,以前从没想过「为什么分词能够提高搜索的精度?」。正确的问法应该是「分词为什么能够改善搜索的排序结果?」,或者「将小粒度的单元聚合成为稍大一点粒度的单元后,为什么居然能够改善搜索的质量?」。

这还有什么好问的,更高级别的抽象当然更能代表文档了。对对对,因为分词是比单字更高的抽象。那么问题来了,有什么比词元更高的抽象单位吗?

摘要!但是,臣妾做不到啊😭 那我们退而求其次,就在词元当中「矮子里拔将军」,找几个有代表性的「中心词」吧。那么,如何界定「中心词」呢?

突然想起给小朋友辅导,问他们「如果让你只用一个词概括高中物理,你选哪个?」
-「能量?」
-「测量。」
……

中心词就是那个选出来的最能概括一篇文档 / 一个段落 / 一个句子的词?就是「所有词都能和这个词产生关联」?顺着这个思路,我们得出第一版公式:

概括程度(word) = ∑ 权重(word) × 关联强度(word, another_word)

现在的问题变成了「如何计算「关联强度」?」。

理想的情况是:中心词哪怕再低频,也能在某种迭代之后获得高权重,而同义词之间的关联强度也能得到提高。

呃😓~~,先用「这个词和其他词的距离」来代替,试试效果吧。

试试这句:

一家加拿大公司正在尝试另一种方法:从空气里面捕获二氧化碳。方法是把空气吹向氢氧化钾溶液,形成碳酸钾。进一步加工处理之后,转变为碳酸钙颗粒。这种颗粒加热后,就会释放二氧化碳,再埋入地下的管道。现在,捕获一顿二氧化碳的成本在200美元以上,但是未来估计可以降低到100美元以下。

要人来概括的话,应该是「加拿大公司尝试固化二氧化碳」。

require 'rmmseg'
require 'pp'

text = "一家加拿大公司正在尝试另一种方法:从空气里面捕获二氧化碳。方法是把空气吹向氢氧化钾溶液,形成碳酸钾。进一步加工处理之后,转变为碳酸钙颗粒。这种颗粒加热后,就会释放二氧化碳,再埋入地下的管道。现在,捕获一顿二氧化碳的成本在200美元以上,但是未来估计可以降低到100美元以下。"

RMMSeg::Dictionary.load_dictionaries
algor = RMMSeg::Algorithm.new(text)

h = Hash.new(0)
seg = []

loop do
    tok = algor.next_token
    break if tok.nil?
    c = tok.text.force_encoding("utf-8")
    seg << c
    h[c] += 1
end

def calc_topic(word, seg_ary, weight_h)
    acc = 0
    seg_ary.each_with_index do |w, i|
        next if w != word
        seg_ary.each_with_index do |v, j|
            next if i == j
            acc += weight_h[word] / (i - j).abs.to_f
        end
    end
    acc
end

weights = {}
seg.each do |word|
    weights[word] = calc_topic(word, seg, h) if weights[word].nil?
    # puts "#{word}\t#{calc_topic(word, seg, h)}"
end

pp weights.to_a.sort_by { |e| e[1] }

来看看 Run 的结果吧:

[["一家", 4.832836757638071],
 ["加拿大", 5.818551043352356],
 ["以下", 5.8185510433523575],
 ["公司", 6.304058289729166],
 ["正在", 6.622685740709558],
 ["100", 6.622685740709561],
 ["尝试", 6.85776036757523],
 ["到", 6.857760367575232],
 ["另一种", 7.042608852423714],
 ["降低", 7.042608852423717],
 ["可以", 7.193890903705769],
 [":", 7.321123046562908],
 ["估计", 7.321123046562912],
 ["从", 7.430250030689892],
 ["未来", 7.430250030689896],
 ["但是", 7.525232109542943],
 ["里面", 7.608838666919988],
 ["以上", 7.683081091162415],
 ["200", 7.8091469695661075],
 ["在", 7.863031681345555],
 ["是把", 7.911841205155077],
 ["成本", 7.9118412051550795],
 ["吹向", 7.9964643978665055],
 ["氢氧化钾", 8.03315202889376],
 ["一顿", 8.033152028893761],
 ["溶液", 8.06655283861036],
 ["现在", 8.124564043092153],
 ["形成", 8.124564043092155],
 ["碳酸钾", 8.149610425281393],
 ["管道", 8.172255352817622],
 ["进一步", 8.192645423739611],
 ["地下", 8.210906293304825],
 ["加工", 8.210906293304827],
 ["埋入", 8.227145609544142],
 ["处理", 8.227145609544145],
 ["再", 8.241455373853904],
 ["之后", 8.241455373853908],
 ["转变", 8.264587080425871],
 ["释放", 8.273530169856764],
 ["为", 8.273530169856768],
 ["就会", 8.280788234372896],
 ["碳酸钙", 8.280788234372897],
 ["后", 8.290384449561216],
 ["加热", 8.292769187240074],
 ["这种", 8.292769187240074],
 ["美元", 28.107047123365092],
 ["方法", 30.113845170102643],
 ["空气", 30.9627829930324],
 ["捕获", 31.499267859545537],
 ["的", 32.29760962142574],
 ["颗粒", 33.1599200935312],
 ["二氧化碳", 72.03155025073727],
 ["。", 186.27116977432206],
 [",", 291.5817213469649]]

可以看到,抛开「标点符号」和「虚词」,得分前五的是「二氧化碳」「颗粒」「捕获」「空气」「方法」。


呃😓~~关键怎么验证算法的有效性呢?!


问小伙伴,如果你是外星人👽,来地球看到一串符号。你老板让你汇报侦查情况,你决定猜一个符号,作为中心词,那么怎么猜最准?如果允许猜一组符号呢?

小伙伴说,这不可能做到。你想,中文里频率最高的字是「的」( Maybe ) ,但「的」没有半点概括能力。

我说,不对。「的」在全文档库都会出现,它的分布是均匀的,而中心词的分布是不均匀的。

这启发我,也许,考虑分布是一条路。至少理论上没有封死这条路。试想,我们可以说「词汇的集合」,但几乎不会说「集合的词汇」。当「词汇」和「集合」邻接时,几乎可以肯定是「词汇」修饰「集合」。那我们能不能通过分析全文档库找出这种修饰关系呢?


我们再来考察具体的结构。从「单字」到「词元」到「词组」,乃至「句子」「段落」……似乎都有一个共通的特性:「附着」。比如:「飞行」和「汽车」可以整合为「飞行汽车」,但其实应该是「飞行的 / 汽车」。「飞行的」是修饰,是附着在「汽车」上的。顺着这个思路,各种「修饰」都是附着在「主干」上形成更高级、更复杂的表达。「修饰语」附着在「主语」上构成「句子」。而「分论据」支撑「论点」构成「段落」……

突然,我想到,这会不会就是「互信息」?


后面的还没想好……

上一篇 下一篇

猜你喜欢

热点阅读