消费级显卡玩转大模型全链路!InternLM2-1.8B正式开源

InternLM2-1.8B

为了响应社区用户极其强烈的呼声,InternLM2-1.8B 于近日正式开源!要说这呼声多强烈,有 issue 截图为证。

 

InternLM2-1.8B 提供了三个版本的开源模型,大家可以按需选择。

  • InternLM2-1.8B: 具有高质量和高适应灵活性的基础模型,为下游深度适应提供了良好的起点。

  • InternLM2-Chat-1.8B:通过在线 RLHF 在 InternLM2-Chat-1.8B-SFT 之上进一步对齐。 InternLM2-Chat-1.8B 表现出更好的指令跟随、聊天体验和函数调用,推荐下游应用程序使用

  • InternLM2-Chat-1.8B-SFT:在 InternLM2-1.8B 上进行监督微调 (SFT) 后得到的对话模型。

在 FP16 精度模式下,InternLM2-1.8B 仅需4GB 显存的笔记本显卡即可顺畅运行。拥有8GB 显存的消费级显卡,即可轻松进行 1.8B 模型的微调工作。如此低的硬件门槛,非常适合初学者使用,以深入了解和掌握大模型的全链路。

GitHub 项目主页:

https://github.com/InternLM/InternLM

Hugging Face 模型主页:

https://huggingface.co/internlm/

为了满足社区对此类应用的浓厚兴趣,InternLM 大模型角色扮演兴趣小组(又称 InternLM RolePlay SIG)正式成立,该兴趣小组由社区同学主导发起,致力于挖掘各类小说、动漫、影视方向的人物,探索语言模型在角色扮演方面的极限边界,目前已经有了多项有趣的成果!
小组日常:

  • 一起学习大模型角色扮演相关的经典论文

  • 训练和完善知名 IP 中的角色模型

  • 将论文知识和实践经验作为 arxiv 文章进行产出

InternLM 社区将为兴趣小组提供全方位支持,包括但不限于精美证书、算力资源、上海 AI 实验室的内推机会,以奖励突出贡献的成员。

当然不仅限于角色扮演模型,基于 InternLM 开发任何应用都将得到社区的广泛支持。欢迎大家添加浦语小助手微信(InternLM),加入 InternLM 社区,与我们一起在探索和学习的旅程上不断前行。

一览基于 InternLM2-1.8B 的角色扮演聊天语言模型

Chat-嬛嬛

Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于 InternLM2-chat-1.8B 进行的全量微调得到的模仿甄嬛语气的聊天语言模型。

Chat-甄嬛,实现以《甄嬛传》为切入点,打造一套基于小说、剧本的个性化 AI 微调大模型完整流程,通过提供任一小说、剧本,指定人物角色,运行本项目完整流程,让每一位用户都基于心仪的小说、剧本打造一个属于自己的、契合角色人设、具备高度智能的个性化 AI。

应用地址:
https://openxlab.org.cn/apps/detail/BYCJS/Chat_huanhuan
模型地址:
https://openxlab.org.cn/models/detail/BYCJS/huanhuan-chat-internlm2-1_8b
GitHub 项目链接:
https://github.com/KMnO4-zx/xlab-huanhuan


Mini-Horo-巧耳

InternLM2-Chat-1.8B 模型拥有极强的对话风格模仿能力。基于这种独特优势,Mini-Horo-巧耳(下文称 Mini-赫萝) 利用 QLoRA 微调得到了动漫角色贤狼赫萝的聊天语言模型。

Mini-赫萝尝试结合了小说文本、动漫对话等多种语料,为语言模型微调提供了独具特色的模式。确认提取的角色之后,该模型在微调任务中会创造对应的角色语言辅助规则,对数据进行针对性过滤。Mini-赫萝 在部署阶段更是融合 Langchain 技术,进一步提升了模型的角色代入能力。

综合而言,Mini-赫萝 基于 InternLM2-Chat-1.8B 模型,在低成本、低语料、低部署条件的约束之下,从角色提取、数据制备、模型微调再到应用部署,为动漫角色扮演 LLM 提供了可行的解决方案。

应用地址:
https://openxlab.org.cn/apps/detail/SaaRaaS/Mini-Horo
模型地址:
https://openxlab.org.cn/models/detail/SaaRaaS/Horowag_Mini
GitHub 项目链接:
https://github.com/SaaRaaS-1300/InternLM_openNotebook


八戒-Chat

八戒-Chat 是利用《西游记》剧本中所有关于猪八戒的台词和语句,以及 llm api 生成的相关问题结果,基于InternLM-Chat-1.8b 全量微调得到的模仿猪八戒语气的聊天语言模型。

作为 Roleplay-with-XiYou 子项目之一,八戒-Chat-1.8b 能够以较低的训练成本达到不错的角色模仿能力,同时低部署条件能够为后续接入 LLM chatroom 降低算力门槛。

在 InternLM2-chat-1.8b 的加持下,用户只需提供他们心仪的文学作品或剧本,就能低成本地去微调属于他们自己的角色,并与自己所创造的角色对话,甚至可以将其接入 chatroom 与身处不同时空、不同小说的角色来一场角色大乱斗,不知道《三国演义》中的诸葛亮会给鲁迅送一件什么样的礼物呢?

应用地址:
https://openxlab.org.cn/apps/detail/JimmyMa99/BaJie-Chat
模型地址:
https://openxlab.org.cn/models/detail/JimmyMa99/BaJie-Chat-1.8b
GitHub 项目链接:
https://github.com/JimmyMa99/Roleplay-with-XiYou
https://github.com/JimmyMa99/BaJie-Chat

相关模型下载链接

Hugging Face
InternLM2-1.8B:
https://huggingface.co/internlm/internlm2-1_8b
InternLM2-Chat-1.8B-SFT:
https://huggingface.co/internlm/internlm2-chat-1_8b-sft
InternLM2-Chat-1.8B:
https://huggingface.co/internlm/internlm2-chat-1_8b
MedelScope
InternLM2-1.8B:
https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-1_8b/summary
InternLM2-Chat-1.8B-SFT:
https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b-sft/summary
InternLM2-Chat-1.8B:
https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b/summary
OpenXLab
InternLM2-1.8B:
https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-base-1.8b
InternLM2-Chat-1.8B-SFT:
https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-chat-1.8b-sft
InternLM2-Chat-1.8B:
https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-chat-1.8b

  • 19
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值