神经网络
神经网络
modelTSS
这个作者很懒,什么都没留下…
展开
-
深度学习数据集汇总
1、paperwithcode:https://www.paperswithcode.com/2、格物钛公司官网:https://www.graviti.cn/open-datasets原创 2021-02-03 13:58:27 · 169 阅读 · 0 评论 -
深度学习图像标注工具汇总
https://mp.weixin.qq.com/s?__biz=MzI0ODcxODk5OA==&mid=2247495411&idx=3&sn=fcd6698fb8b2d6e25b90d68af6c55ee7&chksm=e99edd0adee9541c652b9aa4e1b64591463f5e5c698c6c78fa8c6ea7f6ab3dd6897bfb79147a&mpshare=1&scene=1&srcid=0612NI2rZ8ec7T原创 2020-12-05 19:52:04 · 443 阅读 · 0 评论 -
神经网络保存所有超参设置
实验在经历几天后正确的跑完了,实验结果也记录下来了,但是无法搞清楚哪个实验对应哪个Setting。下面的 Code Snippet 可以很好的解决这一问题。记录所有Setting:from argparse import ArgumentParserimport jsonparser = ArgumentParser()parser.add_argument('--seed', type=int, default=8)parser.add_argument('--resume', t原创 2020-12-05 19:06:42 · 402 阅读 · 0 评论 -
神经网络模型可视化
tensorflow:https://blog.csdn.net/qq_34009929/article/details/80166324PyTorch:https://netron.app/caffe:http://ethereon.github.io/netscope/#/editor原创 2020-11-25 16:58:43 · 475 阅读 · 0 评论 -
上采样、以及反卷积&空洞卷积区别
一、 上采样(upsampling)upsampling(上采样)的三种方式:Resize,如双线性插值直接缩放,类似于图像缩放;反卷积(deconvolution & transposed convolution);反池化(unpooling)。上采样upsampling的主要目的是放大图像,几乎都是采用内插值法,即在原有图像像素的基础上,在像素点值之间采用合适的插值算法插入新的元素。传统的网络是subsampling的,对应的输出尺寸会降低;upsampling的意义在于将小尺寸的高原创 2020-11-20 16:25:53 · 2891 阅读 · 0 评论 -
反向传播
最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是很多人在学的时候总是会遇到一些问题,或者看到大篇的公式觉得好像很难就退缩了,其实不难,就是一个链式求导法则反复用。如果不想看公式,可以直接把数值带进去,实际的计算一下,体会一下这个过程之后再来推导公式,这样就会觉得很容易了。转载 2020-10-22 20:06:56 · 191 阅读 · 0 评论 -
特征工程基本概念
均值、方差、标准差、协方差、相关系数、协方差矩阵https://blog.csdn.net/theonegis/article/details/85059105原创 2020-05-09 13:39:21 · 220 阅读 · 0 评论 -
神经网络训练技巧
loss1、要保证loss之间大小不能差超过1个数量级。如分类loss、正则化loss、辅助loss等。原创 2020-04-23 15:08:15 · 387 阅读 · 0 评论 -
世界顶级人工智能会议的总结
这篇文章转载自南京大学周志华教授的博客,原文链接已经找不到了,特此说明。周志华教授的《机器学习》这本书写的不错,深入浅出,适合机器学习入门学习,推荐一下。-----------------------------------------------------------------------------------------------------------------------...转载 2019-11-22 15:59:10 · 524 阅读 · 0 评论