自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 【ChatGLM2-6B微调】6GB显存实现ChatGLM2-6B大模型微调!

6GB显存配置实现ChatGLM2-6B大模型微调!使用官方项目包中的P-Tuning V2做微调实践。

2023-08-15 15:37:55 3350 3

原创 【deepKE做NER教程】调bug!lstmcrf和bert均跑通

目前关于deepke的实战教程大多数是以re关系抽取作为演示的,ner的代码和教程通过readme也能跑也能做,不过还是会有一些bug,这里将我实验过程中的步骤,以及遇到的bug、且如何调整,给大家分享一下。

2023-07-17 15:20:52 1052 4

原创 【论文浅析】大模型与知识图谱融合

随着多模态LLMs和KGs的发展,这个框架可以扩展到处理多模态的数据,如视频、音频和图像。在应用层,LLM和KG可以被整合到一起,以解决各种现实世界的应用,如搜索引擎、推荐系统和AI助手。②、共指消解(同一文本、跨文本)共指消解指的是查找文本中引用(即提及)同一实体或事件的所有表达式。①、LLM作为文本编码器:应用LLMs对实体和关系的文本描述进行编码,以丰富KG的表示。有三种:KG增强的LLMs、LLM增强的KG、协同的LLM+KG。①、实体识别(命名实体识别、实体类型、实体链接)

2023-07-13 22:09:35 1897

原创 【本地逐步部署教程】清华ChatGLM-6B本地部署,适合小白和具备一定基础的大模型尝试者

详细讲解Anaconda的安装、虚拟环境的创建和镜像源配置、ChatGLM-6B模型代码和模型参数的下载、CUDA驱动包括CuDNN的安装、ChatGLM-6B运行

2023-07-11 20:33:21 1162

原创 清华ChatGLM2-6B一键式部署,无需自行安装依赖环境!!

小白式部署,事先已经做好并上传了ChatGLM2-6B模型框架和模型参数的整合文件,且为int4量化版本,支持6GB显存电脑使用;同时,支持ChatGLM2-6B推理运行的环境也全部打包上传了,解压缩到自己的conda的envs文件夹下即可用!此外上传了CUDA、CuDNN安装包,甚至包括Anaconda2的安装包(个人感觉版本越老越好用,主要是网上教程多)

2023-07-11 20:17:48 1866 11

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除