哆啦A梦!!!
码龄6年
关注
提问 私信
  • 博客:36,444
    36,444
    总访问量
  • 20
    原创
  • 1,337,623
    排名
  • 5
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2019-03-07
博客简介:

weixin_44737266的博客

查看详细资料
个人成就
  • 获得42次点赞
  • 内容获得1次评论
  • 获得231次收藏
创作历程
  • 23篇
    2021年
成就勋章
兴趣领域 设置
  • 人工智能
    opencv计算机视觉机器学习深度学习神经网络图像处理数据分析
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

Ubuntu18.04安装MySQL数据库

1、ubuntu18.04系统下安装mysql的注意事项注意:在Ubuntu18.04系统下,采用sudo apt install mysql-server命令的方式默认安装的是MySQL5.7,MySQL5.7版本最高只适配到Ubuntu17.04,不支持Ubuntu18.04。MySQL8.0可适配到Ubuntu18.04,故如果系统使用的Ubuntu18.04,只能安装MySQL8.0,而且加密方式需要选择5.x的加密,因为有兼容性问题,如果你已经执行了上边的命令,安装了MySQL5.7,需要先卸载
原创
发布博客 2021.08.20 ·
2055 阅读 ·
3 点赞 ·
0 评论 ·
9 收藏

Pytorch学习——Tensor张量相关操作

Tensor类型与numpy类型、list类型数据的相互转化Pytorch中Tensor的数据类型Tensor的数据类型及转化——int、long、double、float、half等快速创建Tensor一览表torch.empty和torch.zeros的区别torch.Tensor和torch.tensor的区别随机抽样类函数——torch.randomtorch.tensor.new_ones()返回一个与size大小相同的用1填充的张量torch.rand_like生成相同维度
原创
发布博客 2021.07.19 ·
346 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

模型训练中——模型不收敛或训练失败的原因

训练过程中模型不收敛,应该怎么做,原因有哪些?分以下几步走:(1)要保证训练的次数够多,若训练次数够多没收敛,则进行(2)(2)考虑采取措施解决一、数据与标签(1)没有对数据进行预处理。数据分类标注是否准确?数据是否干净?(2)没有对数据进行归一化。不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。大部分神经网络流程都假设输入输出是在0附近的分布,从权值初始化到激活函数、从训
原创
发布博客 2021.07.18 ·
14909 阅读 ·
26 点赞 ·
0 评论 ·
168 收藏

Pytorch学习——常用优化器区别和优缺点

使用import torch.optim as optimoptimizer = optim.Adam(net.parameters(), lr=eval(LR_G))典型的梯度下降法GD(gradient descent)介绍:梯度下降法(gradient descent)是求解无约束最优化问题的一种常用方法,有实现简单的优点。梯度下降法是迭代算法,每一步需要求解目标函数的梯度向量。特点:标准下降时在权值更新前汇总所有样例得到的标准梯度,随机下降则是通过考察每次训练实例来更新。批量梯度下
原创
发布博客 2021.07.18 ·
1411 阅读 ·
0 点赞 ·
0 评论 ·
5 收藏

Pytorch学习——LSTM与LSTMCell

nn.LSTM()该模块一次构造完若干层的LSTM。构造方法model = nn.LSTM(2, 2, 10, batch_first=True)"""参数说明:  - feature_len:特征的维度  - hidden_len:隐藏层的个数  - layer_num:每个时间步所对应的模型层数  - batch_first:用来指示数据应该以什么形式来给,默认为False,数据形状(seq_len,batch,feature_len);否则形状为(batch,seq_len
原创
发布博客 2021.07.14 ·
2592 阅读 ·
6 点赞 ·
0 评论 ·
20 收藏

Python学习——四种字符串格式化

链接:https://blog.csdn.net/qq_27825451/article/details/105652244
原创
发布博客 2021.07.14 ·
95 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Python数据可视化高级API——Seaborn图表

待写。。。
原创
发布博客 2021.07.12 ·
191 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Python数据可视化--matplotlib使用

可视化数据-matplotlib图表的类型和基本组成图表的常用设置(1) 基本绘图plot函数(2)设置画布(3)设置坐标轴(4)添加文本标签(5)设置标题和图例(6)添加注释(7)调整图表与画布边缘距离(9)坐标轴的其他属性上述部分属性代码实现常用图表的绘制(1)多折线图代码实现(2)热力图代码实现图表的类型和基本组成图表类型图表的基本组成  画布:图表其他元素的容器  图表标题:用来概括图表内容的文字,常用功能有设置字体颜色、字号和字体颜色等  绘图区:显示图形的矩形区域,可以改变
原创
发布博客 2021.07.12 ·
476 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Python数据处理--pandas使用

数据结构实现方式:Series和DataFrameSeriesDataFrame布尔值数组和函数应用数据清洗Pandas本身是建立在NumPy之上的,故NumPy中的一维数组都可转化为SeriesSeries创建可通过列表或数组直接创建 a、s1 = Series([1,2,3]) b、s2 = Series([1,2,3], index=['a', 'b', 'c']) c、s3 = Series(d1), d1={'a':1, 'b':2, 'c':3} d、s3.i
原创
发布博客 2021.07.10 ·
154 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Pytorch模型训练技巧--seed

模型训练中的随机种子设置作用:固定住深度模型训练的过程,使得每次从头开始训练模型初始化方式和数据读取方式保持一致使用:seed = 1np.random.seed(seed)torch.manual_seed(seed)torch.backends.cudnn.deterministic = True # 保证每次卷积算法返回结果一样torch.backends.cudnn.benchmark = False   # 保证每次cudnn使用的都是同一种算法,而不是自行选择最优算法
原创
发布博客 2021.07.07 ·
1836 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

python数据预处理

将图片按比例分在多个文件夹(7:3分成训练集和测试集)目录结构目的!:将image_region文件夹下面的01-12文件夹中的图像按比例分成训练集和测试集格式要求:train文件夹中有文件夹为01-12,test文件夹中一样,其中的图片数据量不同分之前目录结构分之后目录结构实现代码:import osimport randomimport shutilfrom shutil import copy2category = ['01', '02', '03', '04',
原创
发布博客 2021.06.20 ·
143 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Pytorch模型训练技巧--warmup

学习率pytorch中的学习率调节策略实际中学习率调节策略代码实现pytorch中的学习率调节策略(1)等间隔调整学习率 StepLR(2)按需调整学习率 MultiStepLR(3)指数衰减调整学习率 ExponentialLR(4)余弦退火调整学习率 CosineAnnealingLR(5)自适应调整学习率 ReduceLROnPlateau(6)自定义调整学习率 LambdaLR实际中学习率调节策略在顶会论文和知名比赛中,作者一般都不会直接使用上述学习率调整策略,而是先预热模型(wa
原创
发布博客 2021.06.16 ·
1795 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Python各类图像库的图片读写方式总结

转载链接:https://www.cnblogs.com/skyfsm/p/8276501.html
转载
发布博客 2021.06.02 ·
84 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

pandas之read_csv 与 to_csv 参数详解

转载:https://blog.csdn.net/u010801439/article/details/80033341
转载
发布博客 2021.05.26 ·
161 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Python+ opencv:将长视频均匀的切成短视频

转载:https://blog.csdn.net/weixin_45654744/article/details/105676660#commentBox==注意:==这种方式切割出来的短视频,没有音轨信息,因为生成的短视频是由多张采样图片拼接起来的。
转载
发布博客 2021.05.26 ·
432 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏

NLP文本生成任务中的评价指标

1、BLEU 是最早提出的机器翻译评价指标,是所有文本评价指标的源头,怎么吹都不为过。这也是现在机器翻译评价的事实标准,有标准的 perl 测评脚本,这样大家用起来就不会有什么实现上的偏差;Python 实现也很多,我记得 NLTK 工具箱里就有。BLEU 的大意是比较候选译文和参考译文里的 n-gram(实践中从 unigram 取到 4-gram) 重合程度,重合程度越高就认为译文质量越高。选不同长度的 n-gram 是因为,unigram 的准确率可以用于衡量单词翻译的准确性,更高阶的 n-gram
原创
发布博客 2021.05.16 ·
901 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

解决Transformer中的时空复杂度

Longformer:超越RoBERTa,为长文档而生的预训练模型https://blog.csdn.net/xixiaoyaoww/article/details/107398795
原创
发布博客 2021.05.08 ·
441 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Pytorch中的masked_fill()函数

masked_fill()函数主要用在transformer的attention机制中,在时序任务中,主要是用来mask掉当前时刻后面时刻的序列信息。此时的mask主要实现时序上的mask。>>>a=torch.tensor([1,0,2,3])>>>a.masked_fill(mask = torch.ByteTensor([1,1,0,0]), value=torch.tensor(-1e9))>>>a>>>tenso
原创
发布博客 2021.05.07 ·
4818 阅读 ·
6 点赞 ·
0 评论 ·
11 收藏

Pytorch中保存&加载模型

Pytorch中保存&加载模型一、保存和加载模型1.保存模型2.加载模型二、CPU/GPU保存和加载模型1、GPU上训练,CPU保存模型三、加载和保存Checkpoint(断点续传)一、保存和加载模型1.保存模型pytorch中保存模型的有两种方式:1、保存整个模型:即包括神经网络的的结构信息和模型参数信息,save的对象是网络net。后缀一般命名为.pkl。2、保存模型参数:即仅保存模型的可训练参数信息,save的对象是网络参数字典net.state_dict()。后缀一般命名为 .pt
原创
发布博客 2021.05.07 ·
633 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

Pytorch中的nn.DataParallel()

多GPU训练与BN归一化的关系?nn.DataParallel()BN归一化nn.DataParallel()当有多个GPU资源,且使用nn.DataParallel(),把模型同时放在多个GPU上时,需要注意:输入:在执行forward()函数时,输入到模型中的batch会被分配到不同的GPU上并行进行计算,拆分维度默认为第一维度(dim=0),例如:输入数据为(24,2,32,32),GPU数量为3,则每个GPU上都会有一个forward()函数,且数据为(8,2,32,32),三个forwar
原创
发布博客 2021.05.06 ·
566 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏
加载更多