- 博客(17)
- 资源 (11)
- 收藏
- 关注
原创 谷歌发布MetNet神经网络模型预测天气
导语:Google 正在积极研究如何改进全球天气预报模型。 准确预测未来几分钟到几周的天气是一项基本的科学挑战。很多气象机构目前采用的预报是基于大气的物理模型,但这些模型本身受到计算要求的限制且对物理定律的近似值非常敏感。另一种天气预报方法是使用深神经网络(DNNs)。DNNs 在强大的专用硬件(如 GPU 和 TPU)上使用并行计算,发现数据中的模式,并学习从输入到所需输出的复杂转换。...
2020-03-31 21:49:39 4212
原创 计算机视觉必备框架!Opencv系列学习实战
以下文章来源于网易云课堂《opencv视觉实战》的学习笔记:opencv系列(一)opencv系列(二)opencv系列(三)opencv系列(四)opencv系列(五)opencv系列(六)opencv系列(七)opencv实战基于OpenCV的红绿灯识别代码解析...
2020-03-29 10:55:48 997 14
原创 【AAAI2020】强化学习玩王者荣耀
论文题目: Mastering Complex Controlin MOBA Games with DeepReinforcement Learning主要贡献提出了一个深度强化学习框架,从系统和算法的角度来解决这个问题。提出的算法包括几种新颖的策略,包括control dependency decoupling,action mask,target action和dual-clip ...
2020-03-28 23:01:47 3206 6
原创 从零开始学Pytorch(十八)之kaggle图像分类
我们将运用在前面几节中学到的知识来参加Kaggle竞赛,该竞赛解决了CIFAR-10图像分类问题。比赛网址是https://www.kaggle.com/c/cifar-10.import numpy as npimport torchimport torch.nn as nnimport torch.optim as optimimport torchvisionimport t...
2020-03-26 23:15:41 1037 3
原创 从零开始学Pytorch(十七)之样式分格
样式迁移我们介绍如何使用卷积神经网络自动将某图像中的样式应用在另一图像之上,即样式迁移(style transfer)。这里我们需要两张输入图像,一张是内容图像,另一张是样式图像,我们将使用神经网络修改内容图像使其在样式上接近样式图像。图中的内容图像为西雅图郊区的雷尼尔山国家公园(Mount Rainier National Park)拍摄的风景照,而样式图像则是一副主题为秋天橡树的油画。最终输...
2020-03-23 23:24:07 735 1
原创 从零开始学Pytorch(十七)之目标检测基础
目标检测和边界框%matplotlib inlinefrom PIL import Imageimport syssys.path.append('/home/input/') #数据集路径import d2lzh1981 as d2l #已封装好的包# 展示用于目标检测的图d2l.set_figsize() #已封装好的包img = Image.open('/home...
2020-03-22 23:28:07 1452
原创 从零开始学Pytorch(十六)之模型微调
微调在前面的一些章节中,我们介绍了如何在只有6万张图像的Fashion-MNIST训练数据集上训练模型。我们还描述了学术界当下使用最广泛的大规模图像数据集ImageNet,它有超过1,000万的图像和1,000类的物体。然而,我们平常接触到数据集的规模通常在这两者之间。假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子,为每种椅子拍摄1,...
2020-03-20 23:26:15 895
原创 从零开始学Pytorch(十五)之数据增强
图像增广在深度卷积神经网络里我们提到过,大规模数据集是成功应用深度神经网络的前提。图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以对图像进行不同方式的裁剪,使感兴趣的物体出现在不同位置,从而减轻模型...
2020-03-20 22:51:47 978
原创 从零开始学Pytorch(十四)之优化算法进阶
动量目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size, 来控制梯度方差和收敛的结果。...
2020-03-17 22:51:00 720
原创 从零开始学Pytorch(十三)之梯度下降
梯度下降%matplotlib inlineimport numpy as npimport torchimport timefrom torch import nn, optimimport mathimport syssys.path.append('/home/input')import d2lzh1981 as d2l一维梯度下降证明:沿梯度反方向移动自变量可以减小...
2020-03-16 23:04:08 741
原创 从零开始学Pytorch(十二)之凸优化
尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性)%matplotlib inlineimport syssys.path.append('/home/input')import d2lzh1981 as d2lfrom mpl_toolkits import m...
2020-03-16 22:46:56 892
原创 从零开始学Pytorch(十一)之ModernRNN
RNN:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ycy6d8iB-1584285348969)(https://cdn.kesci.com/upload/image/q5jjvcykud.png?imageView2/0/w/320/h/320)]Ht=ϕ(XtWxh+Ht−1Whh+bh)H_{t} = ϕ(X_{t}W_{xh} + H_{t-1}W...
2020-03-15 23:22:38 820
原创 从零开始学Pytorch(十)之循环神经网络基础
本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量HHH,用HtH_{t}Ht表示HHH在时间步ttt的值。HtH_{t}Ht的计算基于XtX_{t}Xt和Ht−1H_{t-1}Ht−1,可以认为HtH_{t}Ht记录了到当前字符为止的序列信息,利用HtH_{t}Ht对序列的下...
2020-03-14 23:43:10 763
原创 从零开始学Pytorch(九)之批量归一化和残差网络
对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。1.对全连接层做批量归一化位置:全连接层中的仿射变换和激活函数之间。全连接:x=Wu+boutput=ϕ(x)\boldsymbo...
2020-03-08 23:07:44 933
原创 入门人工智能最全路线图
吴恩达《机器学习》吴恩达自然不用说了,人工智能领域的大牛,世界上人工智能最有权威的学者之一。他讲的课自然是很牛逼的,是人工智能入门的不二之选。这门课基本涵盖了机器学习的主要知识点,例如:线性回归、逻辑回归、支持向量机、神经网络、K-Means、异常检测等等。而且课程中没有复杂的公式推导和理论分析。Ng 的目的是让机器学习初学者能够快速对整个机器学习知识点有比较整体的认识,便于快速入门。网易云课...
2020-03-06 23:20:04 5288
原创 从零开始学Pytorch(八)之Modern CNN
LeNet: 在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。特征:8层变换,其中有5层卷积...
2020-03-04 22:23:18 759
原创 从零开始学Pytorch(七)之卷积神经网络
卷积神经网络基础我们介绍卷积神经网络的卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。import torchfrom torch.autograd import Variablea=Variable(torch.FloatTensor([[2.,4.]]),requires_grad=True)b=torch.zeros(1,2)b[0,0]=a[0,0]**2+a[0,...
2020-03-01 23:12:38 978
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人