自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 L2G5000——茴香豆:企业级知识库问答工具

本关无闯关任务,仅了解。是由书生·浦语团队开发的一款开源、专门针对国内企业级使用场景设计并优化的知识问答工具。在基础 RAG 课程中我们了解到,RAG 可以有效的帮助提高 LLM 知识检索的相关性、实时性,同时避免 LLM 训练带来的巨大成本。在实际的生产和生活环境需求,对 RAG 系统的开发、部署和调优的挑战更大,如需要解决群应答、能够无关问题拒答、多渠道应答、更高的安全性挑战。因此,根据大量国内用户的实际需求,总结出了的茴香豆知识问答助手架构,帮助企业级用户可以快速上手安装部署。

2025-02-17 15:31:40 803

原创 L2G4000——InternVL 多模态模型部署微调实践

sudo chmod +x /root/.conda/enve/你的环境名字/lib/python3.11/site-packages/gradio/frpc_linux_amd64_v0.3。2.重命名为frpc_linux_amd64_v0.3, 并放入gradio这个文件夹中(按你对应的,每个人的路径可能不一样)把自定义的安装包的路径添加到PYTHONPATH环境变量中,这样python才能找到你安装的包;然后就是把/root/InternVL2-Tutorial/demo/theme.py的。

2025-02-17 15:26:45 927

原创 L2G6000——MindSearch 快速部署

此时, 我们便完成了 MindSearch 的 Hugging Face Spaces 部署, 完结撒花~~要使用硅基流动的 API Key,所以接下来便是注册并获取 API Key 了。来注册硅基流动的账号(如果注册过,则直接登录即可)。在该页面的右上角,选择Duplicate this Space。等待Spaces应用启动,当启动好后上方会显示绿色的。2)首先我们找到InternLM官方部署的。标志,这时我们可以输入input进行测试了。1)获取硅基流动API KEY。来准备 API Key。

2025-02-17 14:47:34 350

原创 L2G3000——LMDeploy 量化部署进阶实践

是一个专门用于创建文件夹并设置开发机共享目录的软链接。

2025-02-16 21:04:51 731

原创 L2G2000——Lagent 自定义你的 Agent 智能体

Action,也称为工具,Lagent中集成了很多好用的工具,提供了一套LLM驱动的智能体用来与真实世界交互并执行复杂任务的函数,包括谷歌文献检索、Arxiv文献检索、Python编译器等。,再次输入指令“帮我搜索一下最新版本的MindSearch论文”,可以看到,通过调用外部工具,大模型成功理解了我们的任务,得到了我们需要的文献。(4)输入项目名称(可以使用“Lagent”),选择免费订阅,并在凭据设置中创建新的凭据。:负责审阅生成的内容,指出不足,推荐合适的文献,使文章更加完善。

2025-02-16 02:03:21 566

原创 L1G6000——OpenCompass 评测书生大模型实践

1)环境配置评测 API 模型:如果你想要评测通过 API 访问的大语言模型,整个过程其实很简单。首先你需要获取模型的 API 密钥(API Key)和接口地址。以 OpenAI 的 GPT 模型为例,你只需要在 OpenAI 官网申请一个 API Key,然后在评测配置文件中设置好这个密钥和相应的模型参数就可以开始评测了。评测过程中,评测框架会自动向模型服务发送测试用例,获取模型的回复并进行打分分析。整个过程你不需要准备任何模型文件,也不用担心本地计算资源是否足够,只要确保网络连接正常即可。

2025-02-15 16:58:54 2181

原创 L1G5000——XTuner 微调个人小助手认知

1.使用 conda 先构建一个 Python-3.10 的虚拟环境2.安装 XTuner验证安装没有报错,则成功3. 创建一个新的文件夹用于存储微调数据4.写一个脚本生成修改我们需要的微调训练数据,在当前目录下创建一个文件5.打开该文件然后修改如下: 打开,修改--new_text中为你的名字6.执行脚本 (这段代码的主要作用是7.查看数据(自己看修改的名字是否在数据中)

2025-02-14 21:38:30 1001

原创 L1G4000-InternLM + LlamaIndex RAG 实践

下载模型下载 NLTK 相关资源。

2025-02-11 22:12:30 397

原创 L1G3000——浦语提示词工程实践

文字创作缺乏独特风格,文字优美度欠佳,格式随意,对话连贯性差;回答易偏离重点,准确性不足;流程不清晰,易遗漏关键环节或顺序混乱。:文字创作风格鲜明,优美度提升,格式准确,对话流畅;回答紧扣要点,准确性高;严格遵循既定流程,各环节完整且顺序合理。利用对提示词的精确设计,引导语言模型正确回答出“strawberry”中有几个字母“r”。

2025-01-21 00:07:55 256

原创 L1G2000——玩转书生「多模态对话」与「AI搜索」产品

知乎回复。

2025-01-20 23:09:57 309

原创 【10分钟完成】简单入手,Coze接入微信,完全免费!(无代码)

简单入手,Coze接入微信,完全免费!支持多平台:抖音,飞书,豆包等等·~

2025-01-18 18:03:33 3282

原创 L1G1000——书生大模型全链路开源体系

书生大模型全链路开源开放体系,由上海人工智能实验室精心打造,是一个全方位、一站式的人工智能开源平台。它旨在为全球的学术研究者、开发者以及行业应用专家提供从数据处理到模型部署的全流程支持,降低大模型研发的技术门槛,加速人工智能技术的普及与创新。

2025-01-18 17:25:34 270

原创 L0G4000——玩转HF/魔搭/魔乐社区 and 模型上传 and HF平台上使用Spaces ~

尽管他们的聊天机器人项目并未取得预期的成功,但他们在GitHub上开源的Transformers库却意外地在机器学习领域引起了巨大轰动。如今,HuggingFace已经发展成为一个拥有超过100,000个预训练模型和10,000个数据集的平台,被誉为机器学习界的GitHub。下载速度跟网速和模型参数量大小相关联,如果网速较慢的小伙伴可以只尝试下载1.8b模型对应的config.json文件以及其他配置文件。创建好环境后,可以进入网页版VSCode的界面,这就是CodeSpace提供给我们的在线编程环境。

2025-01-17 23:09:50 953

原创 L0G3000——Git 基础知识

我们学习了Git相关使用~!

2025-01-17 20:39:59 958

原创 L0G2000 :Leetcode 383 and Vscode连接InternStudio debug and pip安装到指定目录

Leetcode 383 and Vscode连接InternStudio debug and pip安装到指定目录,相关内容~

2025-01-16 14:05:33 1634

原创 L0G1000:Linux and SSH

这样,当你访问本地机器的7860端口时,实际上是在访问远程服务器的7860端口。:该选项用于启用压缩。它会压缩所有传输的数据,可以提高传输效率,尤其是在网络带宽有限的情况下。默认情况下,SSH服务运行在22端口,但出于安全考虑,服务器管理员可能会更改默认端口。是占位符,表示远程服务器上SSH服务的端口号。就可以打开相关的网址服务,或者在vscode里面,有端口转发,也可以点击看到。:这是启动SSH客户端的命令,用于建立与远程服务器的安全连接。:这是启动SSH客户端的命令,用于建立与远程服务器的安全连接。

2025-01-16 00:58:54 850 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除