小白成长日记
文章平均质量分 74
记录一些日常学习工作总结的经验等
J心流
这个作者很懒,什么都没留下…
展开
-
whl is not a supported wheel on this platform报错处理
安装pytorch的时候一直报错whl is not a supported wheel on this platform,搞了很久一直没有解决,后来发现是自己安装的anaconda是32位的,真的是绝望,耽误事啊!一个小错,始终没有发现,记录下来,希望能帮到和我一样的人。原创 2023-10-12 23:44:15 · 2874 阅读 · 0 评论 -
从零开始训练大模型—以RoBERTa为例
本文讲述了如何从零开始训练一个大模型,这个从零开始值是指从源码层面自己处理数据、搭建模型。RoBERTa是基于BERT进行改进得到的, RoBERTa 相较于 BERT 最大的改进有三点:1)动态 Masking: BERT的masking是在预处理时进行的,导致这种Masking是静态的,每个epoch的masking结果一致。而RoBERTa中使用Dynamic Masking,只是在序列送入模型中的时候才去进行动态的masking,这样在更大的数据集上或者更多步数的训练上会表现更好。原创 2023-08-16 21:15:00 · 979 阅读 · 1 评论 -
从源码层面理解Bert模型
本篇讲解的Bert的也是之前看过的内容,现将源码及本人做的思维导图贴出来,希望能帮到有需要的同学。以上就是全部内容了,本文主要贡献就是分享了自己做的思维导图,并没有对Bert模型进行详细解读,是因为笔者相信在理解了Transformer模型之后,Bert的理解将会容易很多。思维导图是基于笔者个人的理解整理而成,如有错误欢迎批评指正。参考文章:https://wmathor.com/index.php/archives/1457/原创 2023-08-15 15:35:03 · 112 阅读 · 1 评论 -
基于模型结构与模型源码两个层面理解Transformer
之前看的Transformer源码,当时为了理解Transformer的框架,就从模型结构和模型源码两个层面做了思维导图。最近在复盘,从两个层面上又梳理了一遍,针对重要部分的内容,将个人的理解记录下来。本文从Transformer的模型结构和模型源码两个层面对Transformer进行解读。在模型结构层面上,分析了Transformer主要结构的功能;在模型源码层面,记录了本人对于源码的理解。以上就是全部内容了,本文内容都是基于个人的理解进行的记录,如果错误欢迎批评指正。原创 2023-08-14 21:45:22 · 131 阅读 · 0 评论 -
时间序列的异常检测与预测方法总结
以上就是全部内容了,如有问题,欢迎评论区一起交流。原创 2023-06-25 17:34:47 · 4666 阅读 · 5 评论 -
基于flask和docker的深度学习模型部署
最近使用了flask和docker部署了一个深度学习的模型,做的是nlp的情感分析,经历了九九八十一难终于算是部署成功了,自己也总结了这次模型部署的流程,记录下来供自己和大家参考。以上就是全部的内容了,这是基于我自己做的项目部署来记录的,所以有一定的格式规范,比如需要准备app bin等文件。不知道是否写的足够清楚,如果有啥疑问欢迎留言,大家一起交流。原创 2023-05-05 14:37:28 · 357 阅读 · 1 评论 -
条件debug的设置
以上就是全部的内容了,常见的注意点也提了一嘴,希望能帮到像我一样的小白。原创 2023-04-10 10:06:46 · 370 阅读 · 0 评论 -
GPT-3.5-turbo小白连接教程
以上就是全部内容了,也是参考官网的教程来搞得,没啥技术含量,就当记录一下小白的成长经历吧。考考:链接1:https://www.bilibili.com/video/BV1q8411u7KL/?链接2:https://platform.openai. com/account/api-keys。原创 2023-04-07 10:30:31 · 11121 阅读 · 8 评论 -
服务器中下载特定版本的安装包
以上方法虽然能在低版本python下安装高版本的安装包,但是因为python版本较低的原因还是会出现报错,比如依赖包里需要的某些函数可能会缺失。以上就是全部内容了,虽然是比较笨的方法,但也是自己慢慢摸索出来的,记录下来作为小白成长日记的一部分。原创 2023-04-07 09:36:21 · 306 阅读 · 1 评论