【NLP自然语言处理】TextRank揭秘:文本摘要与关键词提取的强大算法

【NLP自然语言处理】TextRank揭秘:文本摘要与关键词提取的强大算法

目录

🍔 TextRank算法的来源

🍔 TextRank算法的概念

🍔 TextRank算法代码实践

3.1 关键词抽取(keyword extraction)

3.2 关键短语抽取(keyphrase extraction)

3.3 关键句抽取(sentence extraction)

3.4 基于jieba的TextRank算法

🍔 小节

学习目标

🍀 理解TextRank算法的来源.

🍀 掌握TextRank算法的概念.

🍀 掌握TextRank算法的代码实践.

🍔 TextRank算法的来源

  • 在介绍TextRank算法之前, 我们先来简单回顾一下著名的PageRank算法.

  • PageRank算法: 通过计算网页链接的数量和质量来评估网页的重要性, 算法发明人即谷歌的两位联合创始人之一的拉里.佩奇(Larry Page). 最初被应用在搜索引擎优化操作中.

  • 联想思维: PageRank算法其实是借鉴了学术界评价学术论文重要性的通用方法-"影响因子", 可以直观的理解为"该论文被引用的次数".

  • 这样就可以很自然的得到PageRank的核心思想:
    • 如果一个网页被很多其他网页连接到的话, 说明这个网页比较重要, 也就是PageRank值会比较高.
    • 如果一个PageRank值很高的网页链接到另一个网页, 那么被链接到的那个网页的PageRank值也会相应的被提高.

🍔 TextRank算法的概念

  • 对比于衡量网页重要性的PageRank算法, TextRank算法用于衡量哪些单词是关键词, 类比之下的算法思想也就很好理解了:
    • 如果一个单词出现在很多单词的后面, 就是它和很多单词有关联, 那么说明这个单词比较重要.
    • 如果一个TextRank值很高的单词后面跟着另一个单词, 那么后面这个单词的TextRank值也会相应的被提高.

  • 如果对TextRank更深的理论感兴趣, 可以直接查询原始论文, 地址如下:
    • https://web.eecs.umich.edu/~mihalcea/papers/mihalcea.emnlp04.pdf


🍔 TextRank算法代码实践

  • 在本小节中, 我们仅以示例代码跑通几段小程序, 让同学们掌握如何具体在代码层面用TextRank.
    • 关键词抽取(keyword extraction)
    • 关键短语抽取(keyphrase extraction)
    • 关键句抽取(sentence extraction)

3.1 关键词抽取(keyword extraction)

  • 关键词抽取: 是指从文本中确定一些能够描述文档含义的关键术语的过程.

  • 对关键词抽取而言, 用于构建顶点集的文本单元可以使句子中的一个或多个字. 根据这些字之间的关系构建边.
  • 根据任务的需要, 可以使用语法过滤器(syntactic filters)对顶点集进行优化. 语法过滤器的主要作用是将某一类或者某几类词性的字过滤出来作为顶点集.

  • 在真实的企业场景下, 应用TextRank一般都直接采用基于textrank4zh工具包来说辅助工程.
# coding=utf-8 # 导入textrank4zh的相关工具包 from textrank4zh import TextRank4Keyword, TextRank4Sentence # 导入常用工具包 import pandas as pd import numpy as np #关键词抽取 def keywords_extraction(text): # allow_speech_tags : 词性列表, 用于过滤某些词性的词 tr4w = TextRank4Keyword(allow_speech_tags=['n', 'nr', 'nrfg', 'ns', 'nt', 'nz']) # text: 文本内容, 字符串 # window: 窗口大小, int, 用来构造单词之间的边, 默认值为2 # lower: 是否将英文文本转换为小写, 默认值为False # vertex_source: 选择使用words_no_filter, words_no_stop_words, words_all_filters中的>哪一个来构造pagerank对应的图中的节点 # 默认值为'all_filters', 可选值为'no_filter', 'no_stop_words', 'all_filters' # edge_source: 选择使用words_no_filter, words_no_stop_words, words_all_filters中的哪>一个来构造pagerank对应的图中的节点之间的边 # 默认值为'no_stop_words', 可选值为'no_filter', 'no_stop_words', 'all_filters', 边的构造要结合window参数 # pagerank_config: pagerank算法参数配置, 阻尼系数为0.85 tr4w.analyze(text=text, window=2, lower=True, vertex_source='all_filters', edge_source='no_stop_words', pagerank_config={'alpha': 0.85, }) # num: 返回关键词数量 # word_min_len: 词的最小长度, 默认值为1 keywords = tr4w.get_keywords(num=6, word_min_len=2) # 返回关键词 return keywords 

  • 调用:
if __name__ == "__main__": text = "来源:中国科学报本报讯(记者肖洁)又有一位中国科学家喜获小行星命名殊荣!4月19日下午,中国科学院国家天文台在京举行“周又元星”颁授仪式," \ "我国天文学家、中国科学院院士周又元的弟子与后辈在欢声笑语中济济一堂。国家天文台党委书记、" \ "副台长赵刚在致辞一开始更是送上白居易的诗句:“令公桃李满天下,何须堂前更种花。”" \ "据介绍,这颗小行星由国家天文台施密特CCD小行星项目组于1997年9月26日发现于兴隆观测站," \ "获得国际永久编号第120730号。2018年9月25日,经国家天文台申报," \ "国际天文学联合会小天体联合会小天体命名委员会批准,国际天文学联合会《小行星通报》通知国际社会," \ "正式将该小行星命名为“周又元星”。" #关键词抽取 keywords=keywords_extraction(text) print(keywords) 

  • 输出结果:
[{'word': '小行星', 'weight': 0.05808441467341854}, {'word': '天文台', 'weight': 0.05721653775742513}, {'word': '命名', 'weight': 0.0485177005159723}, {'word': '中国', 'weight': 0.045716478124251815}, {'word': '中国科学院', 'weight': 0.037818937836996636}, {'word': '国家', 'weight': 0.03438059254484016}] 

3.2 关键短语抽取(keyphrase extraction)

  • 关键短语抽取: 关键词抽取结束后, 可以得到N个关键词, 在原始文本中相邻的关键词便构成了关键短语.

  • 具体方法: 分析get_keyphrases()函数可知, 内部实现上先调用get_keywords()得到关键词, 然后分析关键词是否存在相邻的情况, 最后即可确定哪些是关键短语.
from textrank4zh import TextRank4Keyword, TextRank4Sentence #关键短语抽取 def keyphrases_extraction(text): tr4w = TextRank4Keyword() tr4w.analyze(text=text, window=2, lower=True, vertex_source='all_filters', edge_source='no_stop_words', pagerank_config={'alpha': 0.85, }) # keywords_num: 抽取的关键词数量 # min_occur_num: 关键短语在文中的最少出现次数 keyphrases = tr4w.get_keyphrases(keywords_num=6, min_occur_num=1) # 返回关键短语 return keyphrases 

  • 调用:
if __name__ == "__main__": text = "来源:中国科学报本报讯(记者肖洁)又有一位中国科学家喜获小行星命名殊荣!4月19日下午,中国科学院国家天文台在京举行“周又元星”颁授仪式," \ "我国天文学家、中国科学院院士周又元的弟子与后辈在欢声笑语中济济一堂。国家天文台党委书记、" \ "副台长赵刚在致辞一开始更是送上白居易的诗句:“令公桃李满天下,何须堂前更种花。”" \ "据介绍,这颗小行星由国家天文台施密特CCD小行星项目组于1997年9月26日发现于兴隆观测站," \ "获得国际永久编号第120730号。2018年9月25日,经国家天文台申报," \ "国际天文学联合会小天体联合会小天体命名委员会批准,国际天文学联合会《小行星通报》通知国际社会," \ "正式将该小行星命名为“周又元星”。" #关键短语抽取 keyphrases=keyphrases_extraction(text) print(keyphrases) 

  • 输出结果:
['小行星命名'] 

3.3 关键句抽取(sentence extraction)

  • 关键句抽取: 句子抽取任务主要就是为了解决自动文本摘要任务, 将每一个sentence作为一个顶点, 根据两个句子之间的内容重复程度来计算他们之间的相似度. 由于不同的句子对之间相似度大小不同, 因此最终构建的是以相似度大小作为edge权重的有权图.

  • 代码实现中, 可以直接调用函数完成:
from textrank4zh import TextRank4Keyword, TextRank4Sentence #关键句抽取 def keysentences_extraction(text): tr4s = TextRank4Sentence() # text: 文本内容, 字符串 # lower: 是否将英文文本转换为小写, 默认值为False # source: 选择使用words_no_filter, words_no_stop_words, words_all_filters中的哪一个来生成句子之间的相似度 # 默认值为'all_filters', 可选值为'no_filter', 'no_stop_words', 'all_filters' tr4s.analyze(text, lower=True, source='all_filters') # 获取最重要的num个长度大于等于sentence_min_len的句子用来生成摘要 keysentences = tr4s.get_key_sentences(num=3, sentence_min_len=6) # 返回关键句子 return keysentences 

  • 调用:
if __name__ == "__main__": text = "来源:中国科学报本报讯(记者肖洁)又有一位中国科学家喜获小行星命名殊荣!4月19日下午,中国科学院国家天文台在京举行“周又元星”颁授仪式," \ "我国天文学家、中国科学院院士周又元的弟子与后辈在欢声笑语中济济一堂。国家天文台党委书记、" \ "副台长赵刚在致辞一开始更是送上白居易的诗句:“令公桃李满天下,何须堂前更种花。”" \ "据介绍,这颗小行星由国家天文台施密特CCD小行星项目组于1997年9月26日发现于兴隆观测站," \ "获得国际永久编号第120730号。2018年9月25日,经国家天文台申报," \ "国际天文学联合会小天体联合会小天体命名委员会批准,国际天文学联合会《小行星通报》通知国际社会," \ "正式将该小行星命名为“周又元星”。" #关键句抽取 keysentences=keysentences_extraction(text) print(keysentences) 

  • 输出结果:
[{'index': 4, 'sentence': '2018年9月25日,经国家天文台申报,国际天文学联合会小天体联合会小天体命名委员会批准,国际天文学联合会《小行星通报》通知国际社会,正式将该小行星命名为“周又元星”', 'weight': 0.2281040325096452}, {'index': 3, 'sentence': '”据介绍,这颗小行星由国家天文台施密特CCD小行星项目组于1997年9月26日发现于兴隆观测站,获得国际永久编号第120730号', 'weight': 0.2106246105971721}, {'index': 1, 'sentence': '4月19日下午,中国科学院国家天文台在京举行“周又元星”颁授仪式,我国天文学家、中国科学院院士周又元的弟子与后辈在欢声笑语中济济一堂', 'weight': 0.2020923401661083}] 

3.4 基于jieba的TextRank算法

  • jieba工具不仅仅可以用来分词, 进行词性分析. 也可以用来完成TextRank.
import jieba.analyse def jieba_keywords_textrank(text): keywords = jieba.analyse.textrank(text, topK=6) return keywords 

  • 调用:
if __name__ == "__main__": text = "来源:中国科学报本报讯(记者肖洁)又有一位中国科学家喜获小行星命名殊荣!4月19日下午,中国科学院国家天文台在京举行“周又元星”颁授仪式," \ "我国天文学家、中国科学院院士周又元的弟子与后辈在欢声笑语中济济一堂。国家天文台党委书记、" \ "副台长赵刚在致辞一开始更是送上白居易的诗句:“令公桃李满天下,何须堂前更种花。”" \ "据介绍,这颗小行星由国家天文台施密特CCD小行星项目组于1997年9月26日发现于兴隆观测站," \ "获得国际永久编号第120730号。2018年9月25日,经国家天文台申报," \ "国际天文学联合会小天体联合会小天体命名委员会批准,国际天文学联合会《小行星通报》通知国际社会," \ "正式将该小行星命名为“周又元星”。" # 基于jieba的textrank算法实现 keywords = jieba_keywords_textrank(text) print(keywords) 

  • 输出结果:
['小行星', '命名', '国际', '中国', '国家', '天文学家'] 

🍔 小节

  • 介绍了TextRank算法的来源和核心思想, 并通过代码实践, 依次提取关键词, 关键短语, 关键句. 利用textrank4zh工具和jieba工具来实现TextRank, 既方便又好用.

Read more

GESP-C++考试一级编程题(模版)+ 考前必读

GESP-C++考试一级编程题(模版)+ 考前必读

一、GESP-C++考试全流程(线下机考环节) (一)考前阶段 准考证打印 考前 5 天开放打印(如2026年 3 月考试为 3 月 14 日),登录官网下载后需核对 3 项关键信息: * 考点地址(精确到教学楼 + 机房号) * 考试时间(1-4 级 9:30-11:30,5-8 级 13:30-16:30) * 考试语言及等级(避免进错系统)        2、物品准备 ✅ 必带:纸质准考证 + 身份证件原件(身份证 / 户口本 / 护照) ✅ 可选:2 支笔 + 2 张空白 A4

By Ne0inhk
【c++与Linux进阶】线程篇 -互斥锁

【c++与Linux进阶】线程篇 -互斥锁

1. 前言: 在我们之前学习的代码种,就是在建造多线程的路上,我们可以看到出现了乱码或者抢占输出,这是为什么呢? 本章将带着这个问题来带你思考: 1. 一个例子先来领略问题的所在。 2. 什么是线程互斥. 3. 见识互斥锁。 4. 使用互斥锁 2. 一个买票的例子: 假设我们有100张电影票,我们同时抢票会出现什么,我们来尝试写代码来看看: #include<iostream>#include<thread>#include<vector>#include<string>#include<cstdio>#include<unistd.h>int ticket =100;voidroutine(std:

By Ne0inhk
【数据结构与算法】汉诺塔问题(C++)

【数据结构与算法】汉诺塔问题(C++)

目录 一、汉诺塔问题基础定义 1. 问题描述 2. 核心规律 3. 问题分解思想(递归核心) 二、递归实现汉诺塔(简洁优雅,易理解) 1. 递归思路 2. 完整递归代码(带步骤打印 ) 三、非递归实现汉诺塔 非递归思路: 1. 非递归思路 2.代码实现: 四、写在最后 汉诺塔(Hanoi Tower)是经典的递归算法入门问题,源于古印度的数学传说,其核心是通过有限次移动,将一根柱子上的所有圆盘按 “小圆盘在上、大圆盘在下” 的规则移到另一根柱子,且移动过程中始终遵守 “一次仅移一个圆盘、大圆盘不能压小圆盘” 的规则。本文将从问题原理出发,详细讲解汉诺塔的递归实现(核心思路,简洁优雅)和非递归实现(基于栈模拟,深入理解递归本质),并提供完整可运行的

By Ne0inhk