pytorch
不是吧这都有重名
所有灿烂时刻,最终都将以独行来偿还。
展开
-
[书生·浦语大模型实战营]——第一节:书生·浦语大模型全链路开源体系and InternLM2 技术报告笔记
应用例子:智能客服/个人助手/行业应用实现流程:开源开放体系:价值观对齐这个挺有意思嗷!大语言模型的下游应用中,增量续训和有监督微调是经常会用到的两种方式(1)增量续训使用场景:让基座模型学习到一些新知识,如某个垂类领域知识(垂类领域表示某个行业的某一部分,细分产业)训练数据:文章、数据、代码等(2)有监督微调使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识训练数据:高质量的对话、问答数据原创 2024-01-04 00:00:10 · 592 阅读 · 0 评论 -
nn.relu和F.rulu的区别
在PyTorch中,nn.X都有对应的函数版本F.X,但是并不是所有的F.X均可以用于forward或其它代码段中,因为当网络模型训练完毕存储model时,forward中的F.X函数中的参数是无法保存的。也就是说,在forward中,使用的F.X函数一般均没有状态参数。nn.ReLU()创建一个nn.Module,这意味着你可以添加到nn.Sequential中。而nn.functional.relu只是对 relu 函数API的调用。一般来说,用模块还是简单的函数调用,取决于你的编码风格。原创 2023-12-03 14:10:28 · 561 阅读 · 0 评论 -
torch中view和reshape的区别
在此记录https://www.jb51.net/article/236201.htm原创 2022-05-26 17:45:14 · 137 阅读 · 0 评论 -
torch中arange和range的区别
最重要的的区别:torch.arange()x = torch.arange(1.0,5.0)print(x)输出:tensor([1., 2., 3., 4.])torch.range()y = torch.range(1.0,5.0)print(y)输出:tensor([1., 2., 3., 4., 5.])可以看到:torch.arange(start,end)的结果不包括endtorch.range(start,end)的结果包括end...原创 2022-03-24 10:17:24 · 229 阅读 · 0 评论