基于Python的人工智能应用案例系列(20):NER技术实体识别

        在这篇案例研究中,我们将构建一个基于神经网络的命名实体识别(NER)模型,专门识别技术相关的术语。通过本案例,将学习如何:

  1. 从原始文本数据中提取技术相关的术语
  2. 使用提取的术语对文本进行标注
  3. 使用这些标注数据来训练NER模型
  4. 测试并可视化模型的输出结果

步骤概览

  1. 加载并处理技术相关文本
  2. 从其他数据源中获取技术术语
  3. 使用这些术语对原始文本进行标注
  4. 训练NER模型
  5. 测试模型并进行可视化展示

1. 加载数据

        我们首先从Google专利中获取了一些技术相关的文本数据,作为模型的训练数据,这些文本来自 Google Patents。为了更好地训练NER模型,我们需要将这些数据划分为多个样本,每个样本作为一个Doc对象。

# 从专利数据文件中加载文本
patent_data = open('data/G06K.txt').read().strip()
print(patent_data[:500])  # 打印前500个字符,查看数据格式

        这些文本是按专利条目分隔的。因此,我们需要将这些文本划分为多个样本,每个样本代表一个专利条目。

# 将数据分割成专利条目,每个条目作为一个样本
patent_texts = patent_data.split('\n\n')
print("样本数量: ", len(patent_texts))
print("第一个专利条目: ", patent_texts[0][:50])

2. 提取技术术语

        接下来,我们将从另一个文件中加载包含技术术语的文本,并使用CountVectorizer从中提取术语。这些术语将用于标注我们的专利文本。

# 从另一个文本文件中加载技术术语
terms = open('data/manyterms.lower.txt').read().lower().strip().split('\n')
print(terms[:10])  # 打印前10个术语
print(f"共 {len(terms)} 个术语")

# 使用CountVectorizer来提取术语,并计算每个术语在文本中的频率
from sklearn.feature_extraction.text import CountVectorizer

cvectorizer = CountVectorizer(vocabulary=terms, lowercase=True, stop_words='english')
X = cvectorizer.fit_transform(patent_texts)

        我们可以统计每个术语在文本中出现的频率:

import numpy as np
# 计算每个术语的出现频率
counts = np.sum(X, axis=0)
vocabs = cvectorizer.get_feature_names_out()

import pandas as pd
# 将结果转为DataFrame,并按频率排序
df = pd.DataFrame(counts, columns=vocabs).T.sort_values(by=0, ascending=False)
print(df.head())  # 打印出现频率最高的术语

3. 使用技术术语进行NER标注

        接下来,我们将利用spaCyPhraseMatcher来根据提取的术语对文本进行NER标注。

import spacy
from spacy.matcher import PhraseMatcher

# 加载空白的spaCy模型
nlp = spacy.blank("en")

# 使用PhraseMatcher创建匹配器
matcher = PhraseMatcher(nlp.vocab)
patterns = list(nlp.pipe(df.index[:25]))  # 将前25个术语作为匹配模式
matcher.add("TECH", patterns)

# 测试PhraseMatcher的效果
doc = nlp("electronic device is very expensive")
matches = matcher(doc)
for match_id, start, end in matches:
    print(f"匹配到的术语: {doc[start:end]}")

4. 创建训练数据集

        我们现在需要创建NER模型的训练和验证数据集。在此过程中,我们使用PhraseMatcher标注每个文本样本中的技术术语。

from spacy.tokens import DocBin, Span
from spacy.util import filter_spans

def create_dataset(texts):
    docs = []
    for doc in nlp.pipe(texts):
        matches = matcher(doc)
        spans = [Span(doc, start, end, label="TECH") for match_id, start, end in matches]
        doc.ents = filter_spans(spans)  # 去除重叠的实体
        docs.append(doc)
    
    # 将数据集按80%/20%划分为训练集和验证集
    train_size = int(len(docs) * 0.8)
    train_docs = docs[:train_size]
    dev_docs = docs[train_size:]
    
    # 将数据保存为spaCy格式
    DocBin(docs=train_docs).to_disk("docs/train.spacy")
    DocBin(docs=dev_docs).to_disk("docs/dev.spacy")

# 创建训练和验证数据集
create_dataset(patent_lines[:10000])  # 使用前10000个样本

5. 生成模型配置文件

        使用spaCy的命令生成训练模型的配置文件。

!python3 -m spacy init config --force configs/tech-config.cfg --lang en --pipeline ner

6. 训练NER模型

        我们可以使用生成的配置文件来训练NER模型。训练时,我们可以选择是否使用GPU。

import spacy
spacy.require_gpu()  # 确保使用GPU加速训练

# 开始训练NER模型
!python3 -m spacy train configs/tech-config.cfg --output ./output --paths.train docs/train.spacy --paths.dev docs/dev.spacy --gpu-id 0

7. 测试模型

训练完成后,我们可以加载训练好的模型,并使用它对新的文本进行标注。

# 加载训练好的模型
nlp = spacy.load("output/model-best")

# 测试模型
doc = nlp("The iPhone is an innovative electronic device.")
print("标注结果:", doc.ents)

# 可视化标注结果
from spacy import displacy
displacy.render(doc, style="ent", jupyter=True)
结语

        在本篇博文中,我们详细展示了如何使用Python和SpaCy从头构建一个技术领域的命名实体识别(NER)模型。通过这一过程,我们涵盖了从数据的获取与清洗、技术术语的提取与匹配、训练集的构建、模型的配置与训练,直到最终的模型测试与可视化。我们结合实际的技术专利文本和技术术语表,成功训练了一个能够识别技术相关实体的NER模型。

        这个项目展示了如何有效地使用自然语言处理技术,结合深度学习来解决实际的文本分析问题。通过这种方法,我们可以自动从技术文档中提取关键信息,为自动化信息提取、文本分类等任务奠定基础。这种方法也可以扩展到其他领域,如医疗、法律、金融等,应用前景广阔。

        《基于Python的人工智能应用案例系列》至此正式完结。从本系列的第一篇开始,我们从基础的机器学习模型逐步深入,涵盖了回归、分类、聚类、生成模型、深度学习网络等多种AI应用场景。在这个过程中,我们不仅讨论了每个算法的理论背景,还通过Python代码实现了这些模型,并展示了如何将它们应用于实际问题中。本系列的最终目标是帮助读者全面了解Python在人工智能领域中的应用,从基础原理到实际项目的完整实现。

        每一篇博文都旨在为技术读者提供深入的技术细节和实用的代码示例。通过这些案例,我们希望读者能够建立起自主解决AI问题的能力,并能将这些知识应用于自己的项目中。我们探讨了从数据科学、机器学习到自然语言处理,再到本篇中的命名实体识别,涵盖了AI应用的多个维度。

        最后,感谢大家的阅读与支持,希望这个系列能够帮助你们在AI之路上走得更远。技术的进步是无止境的,期待大家将所学知识应用到更多创新的项目中,为人工智能的未来贡献自己的力量!

再见,不是结束,而是新的开始!

如果你觉得这篇博文对你有帮助,请点赞、收藏、关注我,并且可以打赏支持我!

欢迎关注我的后续博文,我将分享更多关于人工智能、自然语言处理和计算机视觉的精彩内容。

谢谢大家的支持!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

会飞的Anthony

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值