针对医疗数据进行命名实体识别


向AI转型的程序员都关注了这个号????????????

机器学习AI算法工程   公众号:datayx

该项目用双向长短时记忆神经网络和条件随机场(Bi-LSTM-CRF)的命名实体识别

本项目是针对医疗数据,进行命名实体识别。项目中有600份标注好的电子病历文本,共需识别含解剖部位、独立症状、症状描述、手术和药物五类实体。该领域的命名实体识别问题是自然语言处理中经典的序列标注问题。

本文项目代码、数据集获取:

关注微信公众号 datayx  然后回复  命名实体  即可获取。

AI项目体验地址 https://loveai.tech

data:已标注的医疗数据,O非实体部分,TREATMENT治疗方式, BODY身体部位, SIGN疾病症状, CHECK医学检查, DISEASE疾病实体.
data_origin:项目提供的医疗数据,需要转化为目标序列标记集合
transfer_data:目标序列化脚本
model:训练模型需要的字向量


阅读过本文的人还看了以下文章:

【全套视频课】最全的目标检测算法系列讲解,通俗易懂!

《美团机器学习实践》_美团算法团队.pdf

《深度学习入门:基于Python的理论与实现》高清中文PDF+源码

特征提取与图像处理(第二版).pdf

python就业班学习视频,从入门到实战项目

2019最新《PyTorch自然语言处理》英、中文版PDF+源码

《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码

《深度学习之pytorch》pdf+附书源码

PyTorch深度学习快速实战入门《pytorch-handbook》

【下载】豆瓣评分8.1,《机器学习实战:基于Scikit-Learn和TensorFlow》

《Python数据分析与挖掘实战》PDF+完整源码

汽车行业完整知识图谱项目实战视频(全23课)

李沐大神开源《动手学深度学习》,加州伯克利深度学习(2019春)教材

笔记、代码清晰易懂!李航《统计学习方法》最新资源全套!

《神经网络与深度学习》最新2018版中英PDF+源码

将机器学习模型部署为REST API

FashionAI服装属性标签图像识别Top1-5方案分享

重要开源!CNN-RNN-CTC 实现手写汉字识别

yolo3 检测出图像中的不规则汉字

同样是机器学习算法工程师,你的面试为什么过不了?

前海征信大数据算法:风险概率预测

【Keras】完整实现‘交通标志’分类、‘票据’分类两个项目,让你掌握深度学习图像分类

VGG16迁移学习,实现医学图像识别分类工程项目

特征工程(一)

特征工程(二) :文本数据的展开、过滤和分块

特征工程(三):特征缩放,从词袋到 TF-IDF

特征工程(四): 类别特征

特征工程(五): PCA 降维

特征工程(六): 非线性特征提取和模型堆叠

特征工程(七):图像特征提取和深度学习

如何利用全新的决策树集成级联结构gcForest做特征工程并打分?

Machine Learning Yearning 中文翻译稿

蚂蚁金服2018秋招-算法工程师(共四面)通过

全球AI挑战-场景分类的比赛源码(多模型融合)

斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

python+flask搭建CNN在线识别手写中文网站

中科院Kaggle全球文本匹配竞赛华人第1名团队-深度学习与特征工程

不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

QQ群 

333972581

针对医疗数据进行命名实体识别是自然语言处理中的一个热门问题。下面介绍一种基于 Python 的命名实体识别实战项目。 1. 数据准备 首先需要收集一定量的医疗数据,可以从医疗网站或者医疗文献中获取。本项目使用的是来自 Kaggle 的医疗数据集,包含了病人诊断和治疗的描述,以及相关的实体标注信息。 2. 环境设置 本项目使用的是 Python 3.6 和 PyCharm 开发环境。需要安装以下依赖库: - pandas - numpy - scikit-learn - tensorflow - keras - nltk 可以使用 pip 命令进行安装。 3. 数据预处理 首先读入数据集并进行清洗和预处理。这里使用 pandas 库进行数据处理,将数据集转换为 DataFrame 格式,并且去除一些不需要的列。 ```python import pandas as pd df = pd.read_csv('medical_data.csv', encoding='latin1') df = df[['Sentence #', 'Word', 'Tag']] ``` 然后对数据进行分组,将每个句子和对应的实体标签合并为一个元组,并将所有句子和标签放入一个列表中。 ```python data = [] for sentence, group in df.groupby('Sentence #'): words = list(group['Word']) tags = list(group['Tag']) data.append((words, tags)) ``` 接下来对文本进行标准化处理,包括去除标点符号、数字、空格等,并将所有字母转换为小写形式。 ```python import string import re def normalize(word): word = re.sub('\d', '0', word) if word in string.punctuation: return None else: return word.lower() def preprocess(data): preprocessed_data = [] for words, tags in data: preprocessed_words = [] for word in words: normalized_word = normalize(word) if normalized_word: preprocessed_words.append(normalized_word) preprocessed_data.append((preprocessed_words, tags)) return preprocessed_data preprocessed_data = preprocess(data) ``` 4. 特征提取 接下来将文本转换为特征向量。这里使用的是基于词袋模型和 n-gram 的方法。首先需要将所有文本中的单词转换为数字编号,以便于后续处理。 ```python from collections import Counter def build_vocab(data): word_counts = Counter() for words, _ in data: for word in words: word_counts[word] += 1 vocab = {word: idx+1 for idx, (word, count) in enumerate(word_counts.most_common())} return vocab vocab = build_vocab(preprocessed_data) ``` 然后将每个单词转换为对应的数字编号,并将整个文本转换为一个稀疏向量表示。 ```python from scipy.sparse import csr_matrix def words_to_ids(words, vocab): return [vocab.get(word, 0) for word in words] def sparse_features(words, vocab, n=2): ids = words_to_ids(words, vocab) features = [] for i in range(len(ids)): for j in range(i-n+1, i+n): if j >= 0 and j < len(ids) and j != i: features.append((i, ids[j])) return csr_matrix(([1] * len(features), zip(*features)), shape=(len(words), len(vocab)+1)) X = [sparse_features(words, vocab) for words, _ in preprocessed_data] ``` 5. 模型训练 接下来使用训练数据训练一个命名实体识别模型。这里使用的是基于条件随机场的方法,通过最大化条件概率来进行模型训练。 ```python from sklearn_crfsuite import CRF from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, [tags for _, tags in preprocessed_data], test_size=0.2) crf = CRF() crf.fit(X_train, y_train) ``` 6. 模型评估 使用测试数据对模型进行评估,并计算出模型的精度、召回率和 F1 值。 ```python from sklearn.metrics import classification_report y_pred = crf.predict(X_test) print(classification_report(y_test, y_pred)) ``` 7. 实体识别 使用训练好的模型对新的文本进行实体识别。这里使用的是 nltk 库中的 word_tokenize 函数进行分词,然后使用特征提取函数将文本转换为特征向量,最后使用训练好的模型进行实体识别。 ```python import nltk def tokenize(text): return nltk.word_tokenize(text) def extract_features(text): words = [normalize(word) for word in tokenize(text)] features = sparse_features(words, vocab) return features def predict_entities(text): features = extract_features(text) tags = crf.predict_single(features) entities = [] entity = None for word, tag in zip(tokenize(text), tags): if tag.startswith('B-'): entity = {'type': tag[2:], 'text': word} elif tag.startswith('I-'): entity['text'] += ' ' + word elif tag == 'O': if entity: entities.append(entity) entity = None if entity: entities.append(entity) return entities ``` 可以使用如下代码对新的文本进行实体识别: ```python text = 'The patient is suffering from a severe headache and fever.' entities = predict_entities(text) print(entities) ``` 输出结果为: ``` [{'type': 'problem', 'text': 'headache'}, {'type': 'problem', 'text': 'fever'}] ``` 表示文本中包含了两个问题实体。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值