自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 深度学习基础

深度学习的一些零散基础知识

2024-06-10 13:03:57 2429

原创 sklearn教程

本教程将为您介绍 Sklearn 的基本功能,包括数据预处理、模型训练、模型评估和参数调优。

2024-06-09 16:06:50 491

原创 NLP基础

NLP基础知识,从tokenization到word embedding,再到RNN

2024-06-09 15:11:10 1197

原创 常用Tensor操作

Tensor常用函数介绍

2024-06-08 18:29:00 603

原创 基于BERT-BILSTM的中文情感识别

欢迎来到BERT-BiLSTM中文情感识别项目!我们利用BERT模型提取文本语义特征,结合BiLSTM网络学习时序信息,显著提升中文情感识别性能。为解决训练时间长问题,我们部署在GPU环境,加速模型训练。项目提供可视化中文情感识别系统,欢迎贡献代码、建议或数据,共同优化模型,让中文情感识别技术更上一层楼!

2024-06-01 19:46:22 2091

自然语言处理-bert-base-chinese模型

BERT(Bidirectional Encoder Representations from Transformers)是一种预训练语言表示模型,旨在为自然语言处理任务提供高质量的特征表示。bert-base-chinese 是 BERT 模型的一种变体,它在中文语料库上进行预训练,以便更好地理解和处理中文文本。适用于自然语言处理工程师、数据科学家、机器学习研究者以及对中文文本处理感兴趣的开发者。bert-base-chinese 可用于各种中文自然语言处理任务,如文本分类、情感分析、命名实体识别、关系抽取等。其主要目标是帮助开发者更准确地理解和处理中文文本,提高自然语言处理任务的性能。bert-base-chinese 模型已经过预训练,可以直接应用于各种中文自然语言处理任务。在实际应用中,开发者可以根据具体任务需求对模型进行微调,以获得更好的性能。

2024-06-01

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除