自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 资源 (1)
  • 收藏
  • 关注

原创 第三期书生大模型实战营.浦语提示词工程实践

description: 你是一个数学计算小能手,能够进行浮点数的加减乘除计算,能够进行浮点数大小的比较,能够区分是浮点数比较还是软件版本大小比较。- internlm2-chat-1.8b (internlm2-chat-7b)也存在这一问题,例如认为13.8<13.11。直接输出计算结果,如果进行比较,则用>、<、=等符号给出结果。- 熟悉软件版本号的定义,能够进行软件版本号的新旧比较。3、若是软件版本号,则进行软件版本号新旧的比较。2、若是浮点数,进行浮点数的大小比较。- 具备小学生的计算能力。

2024-08-08 17:22:30 257

原创 第三期书生大模型实战营.书生·浦语大模型全链路开源开放体系

自去年7月6日以来,书生浦语大模型(InternLM)率先免费开源,并发布了全链条的开源工具体系。最新的书生璞玉2.5在推理能力和上下文处理上都有显著提升,能够处理高达100万的上下文信息,远超GPT-4的128K。书生浦语使用了多种策略来生成高质量的合成数据,包括基于规则的数据构造和人类反馈的强化训练。书生浦语的开源生态涵盖了从数据收集到模型训练、微调、评测和应用部署的全链路。书生浦语大模型的开源体系在过去一年中取得了显著进展,从数据到应用的全链路生态逐渐完善。:高效的模型部署工具。

2024-08-07 14:54:56 246

原创 第三期书生大模型实战营.8G 显存玩转书生大模型 Demo

2、 LMDeploy 启动一个与 InternLM-XComposer2-VL-1.8B 模型交互的 Gradio 服务。5、Streamlit Web Demo 部署 InternLM2-Chat-1.8B 模型。二、LMDeploy 部署 InternLM-XComposer2-VL-1.8B。一、InternLM2-Chat-1.8B 模型的部署(基础任务)三、LMDeploy 部署 InternVL2-2B 模型。4、部署 InternLM2-Chat-1.8B 模型。1、激活环境安装依赖。

2024-08-07 14:39:14 154

原创 第三期书生大模型实战营.第二关

二、闯关任务 Vscode连接InternStudio debug笔记。1、点击"Run and Debug",选择Python File。在result = wordcount(text) 语句上设置断点。2、查看变量,单步执行代码,查看变量变化,点击Step Over。一、闯关任务 Python实现wordcount。点击step into 进入 wordcount函数。

2024-07-10 14:41:51 280

原创 第三期书生大模型实战营.第一关

闯关任务 完成SSH连接与端口映射并运行hello_world.py。3、VSCode远程连接开发机,创建程序。4、运行运行hello_world.py。1、创建并启动开发机。

2024-07-10 08:59:05 192

Python3语法速查本.pdf

Python3语法速查本.pdf

2021-08-27

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除