shark_edge
码龄6年
关注
提问 私信
  • 博客:6,337
    6,337
    总访问量
  • 3
    原创
  • 158,099
    排名
  • 18
    粉丝
  • 0
    铁粉

个人简介:。。。

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2019-04-09
博客简介:

weixin_44893748的博客

查看详细资料
  • 原力等级
    当前等级
    1
    当前总分
    91
    当月
    1
个人成就
  • 获得30次点赞
  • 内容获得11次评论
  • 获得25次收藏
创作历程
  • 2篇
    2024年
  • 1篇
    2023年
成就勋章
创作活动更多

新星杯·14天创作挑战营·第9期

这是一个以写作博客为目的的创作活动,旨在鼓励大学生博主们挖掘自己的创作潜能,展现自己的写作才华。如果你是一位热爱写作的、想要展现自己创作才华的小伙伴,那么,快来参加吧!我们一起发掘写作的魅力,书写出属于我们的故事。我们诚挚邀请你们参加为期14天的创作挑战赛! 注: 1、参赛者可以进入活动群进行交流、分享创作心得,互相鼓励与支持(开卷),答疑及活动群请见 https://bbs.csdn.net/topics/619626357 2、文章质量分查询:https://www.csdn.net/qc

473人参与 去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

RAG 显存回收 Gradio 和 LangChain

ChatGLM_LLM的model显然是占用显存最大的变量。chroma的Embedding模型是通过 HuggingFaceEmbeddings模型导入的。根本上是通过SentenceTransformer导入的嵌入模型,罪魁祸首就是_embedding_function的client。如下图所示的rest按钮。虽然仍然有残余的向量数据库和embedding模型的显存没有完全回收不过已经没有大碍了。demo是基于gradio实现的这里llm_state是通过gr.State共享的ChatGLM_LLM。
原创
发布博客 2024.12.03 ·
482 阅读 ·
5 点赞 ·
1 评论 ·
7 收藏

Keras深度学习实战:Gemma大模型本地部署与应用

gemma在keras的实现由preprocessor和gemmabackbone两部分构成,由GemmaCausalLM继承至GenerativeTask。generate进行生成推理。是从kaggle下载权重参数,并完成模型的实例化,省去了中间过程。目前发布的torch版本的gemma模型有些不稳定,在kaggle平台上测式keras版本的模型结果明显比torch版本的要稳定。gemma 依赖keras3.0及以上版本,keras_nlp和keras3.0的版本适配目前做的不是很完善。
原创
发布博客 2024.03.04 ·
1630 阅读 ·
16 点赞 ·
4 评论 ·
8 收藏

win10 vscode remote-ssh 卡在 setting up inintiallizing解决方法,指定远程端.vscode-server安装路径

近期被这个问题卡了很久有一次卡了10个小时后突然连上了,断开之后无论如何就连不上了。初次连接会在服务器端用户目录下安装.vscode-server.后来发现Remote - SSH设置菜单中可以指定服务端安装路径。进入插件设置页下滑到Remote.SSH: Server Install Path.点击add Item添加远程端设置。Item中写入远程端机器名字,在value中写入远程服务器下自定义的安装路径。如在ail2z中安装则item中写入ail2。点击extensions 插件方块。
原创
发布博客 2023.07.06 ·
4211 阅读 ·
9 点赞 ·
9 评论 ·
10 收藏