进阶教程:用 Python 和 NLTK 进行 NLP 分析

开发 后端
在之前的文章里,我介绍了自然语言处理(NLP)和宾夕法尼亚大学研发的自然语言处理工具包。我演示了用Python解析文本和定义停顿词的方法,并介绍了语料库的概念。语料库是由文本构成的数据集,通过提供现成的文本数据来辅助文本处理。在这篇文章里,我将继续用各种语料库对文本进行对比和分析。

[[412427]]

进一步学习自然语言处理的基本概念

在 之前的文章 里,我介绍了自然语言处理natural language processing(NLP)和宾夕法尼亚大学研发的自然语言处理工具包Natural Language Toolkit (NLTK)。我演示了用 Python 解析文本和定义停顿词stopword的方法,并介绍了语料库corpus的概念。语料库是由文本构成的数据集,通过提供现成的文本数据来辅助文本处理。在这篇文章里,我将继续用各种语料库对文本进行对比和分析。

这篇文章主要包括以下部分:

  • 词网WordNet同义词集synset
  • 相似度比较Similarity comparison
  • Tree树库treebank
  • 命名实体识别Named entity recognition

词网和同义词集

词网WordNet 是 NLTK 里的一个大型词汇数据库语料库。词网包含各单词的诸多认知同义词cognitive synonyms(认知同义词常被称作“同义词集synset”)。在词网里,名词、动词、形容词和副词,各自被组织成一个同义词的网络。

词网是一个很有用的文本分析工具。它有面向多种语言的版本(汉语、英语、日语、俄语和西班牙语等),也使用多种许可证(从开源许可证到商业许可证都有)。初代版本的词网由普林斯顿大学研发,面向英语,使用类 MIT 许可证MIT-like license

因为一个词可能有多个意义或多个词性,所以可能与多个同义词集相关联。每个同义词集通常提供下列属性:    

 

< 如显示不全,请左右滑动 >
属性 定义 例子
名称Name 此同义词集的名称 单词 code 有 5 个同义词集,名称分别是 code.n.01、 code.n.02、 code.n.03code.v.01 和 code.v.02
词性POS 此同义词集的词性 单词 code 有 3 个名词词性的同义词集和 2 个动词词性的同义词集
定义Definition 该词作对应词性时的定义 动词 code 的一个定义是:(计算机科学)数据或计算机程序指令的象征性排列symbolic arrangement
例子Example 使用该词的例子 code 一词的例子:We should encode the message for security reasons
词元Lemma 与该词相关联的其他同义词集(包括那些不一定严格地是该词的同义词,但可以大体看作同义词的);词元直接与其他词元相关联,而不是直接与单词word相关联 code.v.02 的词元是 code.v.02.enciphercode.v.02.ciphercode.v.02.cyphercode.v.02.encryptcode.v.02.inscribe 和 code.v.02.write_in_code
反义词Antonym 意思相反的词 词元 encode.v.01.encode 的反义词是 decode.v.01.decode
上义词Hypernym 该词所属的一个范畴更大的词 code.v.01 的一个上义词是 tag.v.01
分项词Meronym 属于该词组成部分的词 computer 的一个分项词是 chip
总项词Holonym 该词作为组成部分所属的词 window 的一个总项词是 computer screen

 

同义词集还有一些其他属性,在 <你的 Python 安装路径>/Lib/site-packages 下的 nltk/corpus/reader/wordnet.py,你可以找到它们。

下面的代码或许可以帮助理解。

这个函数:

  1. from nltk.corpus import wordnet
  2.  
  3. def synset_info(synset):
  4. print("Name", synset.name())
  5. print("POS:", synset.pos())
  6. print("Definition:", synset.definition())
  7. print("Examples:", synset.examples())
  8. print("Lemmas:", synset.lemmas())
  9. print("Antonyms:", [lemma.antonyms() for lemma in synset.lemmas() if len(lemma.antonyms()) > 0])
  10. print("Hypernyms:", synset.hypernyms())
  11. print("Instance Hypernyms:", synset.instance_hypernyms())
  12. print("Part Holonyms:", synset.part_holonyms())
  13. print("Part Meronyms:", synset.part_meronyms())
  14. print()
  15.  
  16.  
  17. synsets = wordnet.synsets('code')
  18. print(len(synsets), "synsets:")
  19. for synset in synsets:
  20. synset_info(synset)

将会显示:

  1. 5 synsets:
  2. Name code.n.01
  3. POS: n
  4. Definition: a set of rules or principles or laws (especially written ones)
  5. Examples: []
  6. Lemmas: [Lemma('code.n.01.code'), Lemma('code.n.01.codification')]
  7. Antonyms: []
  8. Hypernyms: [Synset('written_communication.n.01')]
  9. Instance Hpernyms: []
  10. Part Holonyms: []
  11. Part Meronyms: []
  12.  
  13. ...
  14.  
  15. Name code.n.03
  16. POS: n
  17. Definition: (computer science) the symbolic arrangement of data or instructions in a computer program or the set of such instructions
  18. Examples: []
  19. Lemmas: [Lemma('code.n.03.code'), Lemma('code.n.03.computer_code')]
  20. Antonyms: []
  21. Hypernyms: [Synset('coding_system.n.01')]
  22. Instance Hpernyms: []
  23. Part Holonyms: []
  24. Part Meronyms: []
  25.  
  26. ...
  27.  
  28. Name code.v.02
  29. POS: v
  30. Definition: convert ordinary language into code
  31. Examples: ['We should encode the message for security reasons']
  32. Lemmas: [Lemma('code.v.02.code'), Lemma('code.v.02.encipher'), Lemma('code.v.02.cipher'), Lemma('code.v.02.cypher'), Lemma('code.v.02.encrypt'), Lemma('code.v.02.inscribe'), Lemma('code.v.02.write_in_code')]
  33. Antonyms: []
  34. Hypernyms: [Synset('encode.v.01')]
  35. Instance Hpernyms: []
  36. Part Holonyms: []
  37. Part Meronyms: []

同义词集synset词元lemma在词网里是按照树状结构组织起来的,下面的代码会给出直观的展现:

  1. def hypernyms(synset):
  2.     return synset.hypernyms()
  3.  
  4. synsets = wordnet.synsets('soccer')
  5. for synset in synsets:
  6.     print(synset.name() + " tree:")
  7.     pprint(synset.tree(rel=hypernyms))
  8.     print()
  1. code.n.01 tree:
  2. [Synset('code.n.01'),
  3.  [Synset('written_communication.n.01'),
  4.    ...
  5.  
  6. code.n.02 tree:
  7. [Synset('code.n.02'),
  8.  [Synset('coding_system.n.01'),
  9.    ...
  10.  
  11. code.n.03 tree:
  12. [Synset('code.n.03'),
  13.    ...
  14.  
  15. code.v.01 tree:
  16. [Synset('code.v.01'),
  17.  [Synset('tag.v.01'),
  18.    ...
  19.  
  20. code.v.02 tree:
  21. [Synset('code.v.02'),
  22.  [Synset('encode.v.01'),
  23.    ...

词网并没有涵盖所有的单词和其信息(现今英语有约 17,0000 个单词,最新版的 词网 涵盖了约 15,5000 个),但它开了个好头。掌握了“词网”的各个概念后,如果你觉得它词汇少,不能满足你的需要,可以转而使用其他工具。或者,你也可以打造自己的“词网”!

自主尝试

使用 Python 库,下载维基百科的 “open source” 页面,并列出该页面所有单词的同义词集synset词元lemma

相似度比较

相似度比较的目的是识别出两篇文本的相似度,在搜索引擎、聊天机器人等方面有很多应用。

比如,相似度比较可以识别 football 和 soccer 是否有相似性。

  1. syn1 = wordnet.synsets('football')
  2. syn2 = wordnet.synsets('soccer')
  3.  
  4. # 一个单词可能有多个 同义词集,需要把 word1 的每个同义词集和 word2 的每个同义词集分别比较
  5. for s1 in syn1:
  6.     for s2 in syn2:
  7.         print("Path similarity of: ")
  8.         print(s1, '(', s1.pos(), ')', '[', s1.definition(), ']')
  9.         print(s2, '(', s2.pos(), ')', '[', s2.definition(), ']')
  10.         print("   is", s1.path_similarity(s2))
  11.         print()
  1. Path similarity of:
  2. Synset('football.n.01') ( n ) [ any of various games played with a ball (round or oval) in which two teams try to kick or carry or propel the ball into each other's goal ]
  3. Synset('soccer.n.01') ( n ) [ a football game in which two teams of 11 players try to kick or head a ball into the opponents' goal ]
  4.    is 0.5
  5.  
  6. Path similarity of:
  7. Synset('football.n.02') ( n ) [ the inflated oblong ball used in playing American football ]
  8. Synset('soccer.n.01') ( n ) [ a football game in which two teams of 11 players try to kick or head a ball into the opponents' goal ]
  9.    is 0.05

两个词各个同义词集之间路径相似度path similarity最大的是 0.5,表明它们关联性很大(路径相似度path similarity指两个词的意义在上下义关系的词汇分类结构hypernym/hypnoym taxonomy中的最短距离)。

那么 code 和 bug 呢?这两个计算机领域的词的相似度是:

  1. Path similarity of:
  2. Synset('code.n.01') ( n ) [ a set of rules or principles or laws (especially written ones) ]
  3. Synset('bug.n.02') ( n ) [ a fault or defect in a computer program, system, or machine ]
  4.    is 0.1111111111111111
  5. ...
  6. Path similarity of:
  7. Synset('code.n.02') ( n ) [ a coding system used for transmitting messages requiring brevity or secrecy ]
  8. Synset('bug.n.02') ( n ) [ a fault or defect in a computer program, system, or machine ]
  9.    is 0.09090909090909091
  10. ...
  11. Path similarity of:
  12. Synset('code.n.03') ( n ) [ (computer science) the symbolic arrangement of data or instructions in a computer program or the set of such instructions ]
  13. Synset('bug.n.02') ( n ) [ a fault or defect in a computer program, system, or machine ]
  14.    is 0.09090909090909091

这些是这两个词各同义词集之间路径相似度path similarity的最大值,这些值表明两个词是有关联性的。

NLTK 提供多种相似度计分器similarity scorers,比如:

  • path_similarity
  • lch_similarity
  • wup_similarity
  • res_similarity
  • jcn_similarity
  • lin_similarity

要进一步了解这些相似度计分器similarity scorers,请查看 WordNet Interface 的 Similarity 部分。

自主尝试

使用 Python 库,从维基百科的 Category: Lists of computer terms 生成一个术语列表,然后计算各术语之间的相似度。

树和树库

使用 NLTK,你可以把文本表示成树状结构以便进行分析。

这里有一个例子:

这是一份简短的文本,对其做预处理和词性标注:

  1. import nltk
  2.  
  3. text = "I love open source"
  4. # Tokenize to words
  5. words = nltk.tokenize.word_tokenize(text)
  6. # POS tag the words
  7. words_tagged = nltk.pos_tag(words)

要把文本转换成树状结构,你必须定义一个语法grammar。这个例子里用的是一个基于 Penn Treebank tags 的简单语法。

  1. # A simple grammar to create tree
  2. grammar = "NP: {&lt;JJ&gt;&lt;NN&gt;}"

然后用这个语法grammar创建一颗tree

  1. # Create tree
  2. parser = nltk.RegexpParser(grammar)
  3. tree = parser.parse(words_tagged)
  4. pprint(tree)

运行上面的代码,将得到:

  1. Tree('S', [('I', 'PRP'), ('love', 'VBP'), Tree('NP', [('open', 'JJ'), ('source', 'NN')])])

你也可以图形化地显示结果。

  1. tree.draw() 

NLTK Tree

这个树状结构有助于准确解读文本的意思。比如,用它可以找到文本的 主语

  1. subject_tags = ["NN", "NNS", "NP", "NNP", "NNPS", "PRP", "PRP$"]
  2. def subject(sentence_tree):
  3.     for tagged_word in sentence_tree:
  4.         # A crude logic for this case -  first word with these tags is considered subject
  5.         if tagged_word[1] in subject_tags:
  6.             return tagged_word[0]
  7.  
  8. print("Subject:", subject(tree))

结果显示主语是 I

  1. Subject: I

这是一个比较基础的文本分析步骤,可以用到更广泛的应用场景中。 比如,在聊天机器人方面,如果用户告诉机器人:“给我妈妈 Jane 预订一张机票,1 月 1 号伦敦飞纽约的”,机器人可以用这种分析方法解读这个指令:

动作: 预订
动作的对象: 机票
乘客: Jane
出发地: 伦敦
目的地: 纽约
日期: (明年)1 月 1 号

树库treebank指由许多预先标注好的tree构成的语料库。现在已经有面向多种语言的树库,既有开源的,也有限定条件下才能免费使用的,以及商用的。其中使用最广泛的是面向英语的宾州树库。宾州树库取材于华尔街日报Wall Street Journal。NLTK 也包含了宾州树库作为一个子语料库。下面是一些使用树库treebank的方法:

  1. words = nltk.corpus.treebank.words()
  2. print(len(words), "words:")
  3. print(words)
  4.  
  5. tagged_sents = nltk.corpus.treebank.tagged_sents()
  6. print(len(tagged_sents), "sentences:")
  7. print(tagged_sents)
  8.  
  1. 100676 words:
  2. ['Pierre', 'Vinken', ',', '61', 'years', 'old', ',', ...]
  3. 3914 sentences:
  4. [[('Pierre', 'NNP'), ('Vinken', 'NNP'), (',', ','), ('61', 'CD'), ('years', 'NNS'), ('old', 'JJ'), (',', ','), ('will', 'MD'), ('join', 'VB'), ('the', 'DT'), ('board', 'NN'), ('as', 'IN'), ('a', 'DT'), ('nonexecutive', 'JJ'), ('director', 'NN'), ...]

查看一个句子里的各个标签tags

  1. sent0 = tagged_sents[0]
  2. pprint(sent0)
  1. [('Pierre', 'NNP'),
  2.  ('Vinken', 'NNP'),
  3.  (',', ','),
  4.  ('61', 'CD'),
  5.  ('years', 'NNS'),
  6. ...

定义一个语法grammar来把这个句子转换成树状结构:

  1. grammar = '''
  2. Subject: {<NNP><NNP>}
  3. SubjectInfo: {<CD><NNS><JJ>}
  4. Action: {<MD><VB>}
  5. Object: {<DT><NN>}
  6. Stopwords: {<IN><DT>}
  7. ObjectInfo: {<JJ><NN>}
  8. When: {<NNP><CD>}
  9. '''
  10. parser = nltk.RegexpParser(grammar)
  11. tree = parser.parse(sent0)
  12. print(tree)
  1. (S
  2.   (Subject Pierre/NNP Vinken/NNP)
  3.   ,/,
  4.   (SubjectInfo 61/CD years/NNS old/JJ)
  5.   ,/,
  6.   (Action will/MD join/VB)
  7.   (Object the/DT board/NN)
  8.   as/IN
  9.   a/DT
  10.   (ObjectInfo nonexecutive/JJ director/NN)
  11.   (Subject Nov./NNP)
  12.   29/CD
  13.   ./.)

图形化地显示:

  1. tree.draw() 

NLP Treebank image

trees树库treebanks的概念是文本分析的一个强大的组成部分。

自主尝试

使用 Python 库,下载维基百科的 “open source” 页面,将得到的文本以图形化的树状结构展现出来。

命名实体识别

无论口语还是书面语都包含着重要数据。文本处理的主要目标之一,就是提取出关键数据。几乎所有应用场景所需要提取关键数据,比如航空公司的订票机器人或者问答机器人。 NLTK 为此提供了一个命名实体识别named entity recognition的功能。

这里有一个代码示例:

  1. sentence = 'Peterson first suggested the name "open source" at Palo Alto, California'

验证这个句子里的人名name地名place有没有被识别出来。照例先预处理:

  1. import nltk
  2.  
  3. words = nltk.word_tokenize(sentence)
  4. pos_tagged = nltk.pos_tag(words)

运行命名实体标注器named-entity tagger

  1. ne_tagged = nltk.ne_chunk(pos_tagged)
  2. print("NE tagged text:")
  3. print(ne_tagged)
  4. print()
  1. NE tagged text:
  2. (S
  3.   (PERSON Peterson/NNP)
  4.   first/RB
  5.   suggested/VBD
  6.   the/DT
  7.   name/NN
  8.   ``/``
  9.   open/JJ
  10.   source/NN
  11.   ''/''
  12.   at/IN
  13.   (FACILITY Palo/NNP Alto/NNP)
  14.   ,/,
  15.   (GPE California/NNP))

上面的结果里,命名实体被识别出来并做了标注;只提取这个tree里的命名实体:

  1. print("Recognized named entities:")
  2. for ne in ne_tagged:
  3.     if hasattr(ne, "label"):
  4.         print(ne.label(), ne[0:])
  1. Recognized named entities:
  2. PERSON [('Peterson', 'NNP')]
  3. FACILITY [('Palo', 'NNP'), ('Alto', 'NNP')]
  4. GPE [('California', 'NNP')]

图形化地显示:

  1. ne_tagged.draw() 

NLTK Treebank tree

NLTK 内置的命名实体标注器named-entity tagger,使用的是宾州法尼亚大学的 Automatic Content Extraction(ACE)程序。该标注器能够识别组织机构ORGANIZATION、人名PERSON、地名LOCATION、设施FACILITY地缘政治实体geopolitical entity等常见实体entites

NLTK 也可以使用其他标注器tagger,比如 Stanford Named Entity Recognizer. 这个经过训练的标注器用 Java 写成,但 NLTK 提供了一个使用它的接口(详情请查看 nltk.parse.stanford 或 nltk.tag.stanford)。

自主尝试

使用 Python 库,下载维基百科的 “open source” 页面,并识别出对开源open source有影响力的人的名字,以及他们为开源open source做贡献的时间和地点。

高级实践

如果你准备好了,尝试用这篇文章以及此前的文章介绍的知识构建一个超级结构superstructure

使用 Python 库,下载维基百科的 “Category: Computer science page”,然后:

  • 找出其中频率最高的单词unigrams、二元搭配bigrams三元搭配trigrams,将它们作为一个关键词列表或者技术列表。相关领域的学生或者工程师需要了解这样一份列表里的内容。
  • 图形化地显示这个领域里重要的人名、技术、日期和地点。这会是一份很棒的信息图。
  • 构建一个搜索引擎。你的搜索引擎性能能够超过维基百科吗?

下一步?

自然语言处理是应用构建application building的典型支柱。NLTK 是经典、丰富且强大的工具集,提供了为现实世界构建有吸引力、目标明确的应用的工作坊。

在这个系列的文章里,我用 NLTK 作为例子,展示了自然语言处理可以做什么。自然语言处理和 NLTK 还有太多东西值得探索,这个系列的文章只是帮助你探索它们的切入点。 

如果你的需求增长到 NLTK 已经满足不了了,你可以训练新的模型或者向 NLTK 添加新的功能。基于 NLTK 构建的新的自然语言处理库正在不断涌现,机器学习也正被深度用于自然语言处理。

 

责任编辑:庞桂玉 来源: Linux中国
相关推荐

2020-07-23 09:15:25

Python机器学习聚类分析

2012-12-20 11:13:58

IBMdW

2012-08-08 09:53:23

HadoopMapReduce

2020-08-25 18:10:22

Python代码线性回归

2018-08-30 17:50:30

图像数据分析通道

2021-04-16 20:46:21

PythonXGBoost 特征

2018-09-04 11:45:31

前端JavaScriptNodeJS

2020-07-08 15:10:11

Python数据分析代码

2014-07-21 09:51:10

AndroidResflux修改应用

2016-12-07 14:23:48

KNIME数据分析情感分析

2018-09-25 06:33:21

机器学习NLPPython

2020-07-01 17:05:05

Python方差分析代码

2011-04-14 09:05:07

ExcelMySQL数据

2022-06-24 09:58:35

大数据JavaPython

2023-02-26 01:00:12

索引优化慢查询

2022-11-28 16:04:16

2010-05-17 16:25:05

MySQL数据

2011-04-06 11:36:28

MRTG流量

2021-06-08 11:00:59

pgzeroPython游戏

2019-10-11 08:46:45

Python数据Numpy
点赞
收藏

51CTO技术栈公众号