100% RNN language model ChatRWKV 相关开源项目

    RWKV(读作RwaKuv)借鉴了RNN的移动平均模型(MA),将transformer的 O ( T 2 d ) O(T^2d) O(T2d)复杂度降低到 O ( T d ) O(Td) O(Td),同时保持较好的结果表现。RWKV也是一个开源模型,甚至其介绍主页的html代码都有开源。以下为发现的与RWKV相关的开源项目,其中包括模型结构,任务扩展,微调训练,模型加速,服务化等几个部分。

模型结构

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 【群主】Bo 2023/3/1 16:52:48 RWKV pip package https://pypi.org/project/rwkv/ 做了 pip 包,大家可以直接 inference 了

  • 用150行python独立实现RWKV算法和文字生成,以及RWKV pip package https://zhuanlan.zhihu.com/p/610489720

  • 昵称不好取哎
    @yuunnn_w rwkv原版不是pytorch的吗
    @昵称不好取哎 我这个是纯torch实现,没用cuda
    https://github.com/yuunnn-w/RWKV_Pytorch.git

数据集

任务扩展

微调训练包

cpu 加速,手机加速,amd intel 卡加速,重写 cuda 加速

服务化

CG

  • Large-scale Self-supervised Pre-training Across Tasks, Languages, and Modalities

  • https://github.com/amazon-science/mm-cot 试试亚马逊的mm-cot

  • Meta 的大语言模型 LLaMA 最近引起了广泛关注,它的一大优势是参数规模更小但性能强于 OpenAI 的 GPT-3 模型,而且能运行在单张显卡上,让普通消费者的硬件也有可能提供类似 ChatGPT 性能的 AI 聊天机器人。LLaMA 是一组大语言模型的集合,其参数规模从 70 亿到 650 亿,它最新的 LLaMA-13B 模型有 130 亿个参数,不到 GPT-3 模型 1750 亿个参数的十分之一。现在 Nebuly AI 推出了首个基于人类反馈强化学习的 LLaMA AI 聊天机器人开源实现 ChatLLaMA。https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

  • https://view.inews.qq.com/k/20230117A03EVJ00

  • https://arxiv.org/abs/2302.14045

  • 链接:https://pan.baidu.com/s/1Jkc60TPzc4ArMN530NlZWg?pwd=c8lj
    提取码:c8lj
    –来自百度网盘超级会员V2的分享

  • https://www.bilibili.com/video/BV1m8411P7v7/

  • GPT-3 + RL 全流程训练开源整理:https://zhuanlan.zhihu.com/p/608705255?utm_id=0
    https://zhuanlan.zhihu.com/p/609003237?utm_id=0

  • Accelerating PyTorch with Intel® Extension for PyTorch*

  • https://github.com/karpathy/llama2.c

  • https://github.com/facebookresearch/llama

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值