PyTorch 从零学习深度网络
文章平均质量分 88
微信公众号[机器学习炼丹术]
每天都要进步
展开
-
self-training | 域迁移 | source-free(三)
文章转自微信公众号:机器学习炼丹术论文名称:Domain Adaptive Semantic Segmentation without Source Data会议名称:ACM MM作者:炼丹兄(欢迎交流共同进步)联系方式:微信cyx6450166170 综述上图展示了source-free domain adaptation和一般的DA的区别。在之前的两篇source-free的论文中已经反复讲解,不再赘述。1 方法这文章也是使用Positive learning和Negative .原创 2021-11-11 16:28:31 · 1814 阅读 · 0 评论 -
图网络 | Graph Attention Networks | ICLR 2018 | 代码讲解
【前言】:之前断断续续看了很多图网络、图卷积网络的讲解和视频。现在对于图网络的理解已经不能单从文字信息中加深了,所以我们要来看代码部分。现在开始看第一篇图网络的论文和代码,来正式进入图网络的科研领域。论文名称:‘GRAPH ATTENTION NETWORKS’文章转自:微信公众号“机器学习炼丹术”笔记作者:炼丹兄联系方式:微信cyx645016617(欢迎交流,共同进步)论文传送门:https://arxiv.org/pdf/1710.10903.pdf01 代码实现代码github原创 2021-09-09 16:07:42 · 559 阅读 · 0 评论 -
自监督图像论文复现 | BYOL(pytorch)| 2020
文章原创自微信公众号「机器学习炼丹术」作者:炼丹兄联系方式:微信cyx645016617继续上一篇的内容,上一篇讲解了Bootstrap Your Onw Latent自监督模型的论文和结构:https://juejin.cn/post/6922347006144970760现在我们看看如何用pytorch来实现这个结构,并且在学习的过程中加深对论文的理解。github:https://github.com/lucidrains/byol-pytorch【前沿】:这个代码我没有实际跑过..原创 2021-01-30 18:33:01 · 1671 阅读 · 1 评论 -
笔记 | 吴恩达新书《Machine Learning Yearning》
这本书共112页,内容不多,偏向于工程向,有很多不错的细节,在此记录一下。0 书籍获取关注微信公众号“机器学习炼丹术”,回复【MLY】获取pdf1 测试集与训练集的比例2 误差分析误差分析我感觉是一个成熟的AIer必备的能力。俗话说数据决定准确率的上线,模型只是在逼近这个值。模型效果的提升首先是需要去看数据样本的,把分类错误的样本一个一个看一看,然后心中自己会给出判断:是否有可能减少这种分类错误的样本?如何减少?【也许心中没有这样的判断,但是看一看错误的样本是很重要的。一般看100例分原创 2021-01-27 23:01:10 · 225 阅读 · 0 评论 -
轮廓检测论文解读 | Richer Convolutional Features for Edge Detection | CVPR | 2017
有什么问题可以加作者微信讨论,cyx645016617 上千人的粉丝群已经成立,氛围超好。为大家提供一个遇到问题有可能得到答案的平台。0 概述论文名称:“Richer Convolutional Features for Edge Detection”论文链接:https://openaccess.thecvf.com/content_cvpr_2017/papers/Liu_Richer_Convolutional_Features_CVPR_2017_paper.pdf缩写:RCF这一篇文原创 2020-12-15 22:34:09 · 576 阅读 · 0 评论 -
轮廓检测论文解读 | 整体嵌套边缘检测HED | CVPR | 2015
主题列表:juejin, github, smartblue, cyanosis, channing-cyan, fancy, hydrogen, condensed-night-purple, greenwillow, v-green, vue-pro, healer-readable贡献主题:https://github.com/xitu/juejin-markdown-themestheme: juejinhighlight:0 轮廓检测轮廓检测,对我这样的初学者而言,与语义分割类似。分割.原创 2020-12-08 18:03:31 · 1720 阅读 · 0 评论 -
孪生网络入门(下) Siamese Net分类服装MNIST数据集(pytorch)
主题列表:juejin, github, smartblue, cyanosis, channing-cyan, fancy, hydrogen, condensed-night-purple, greenwillow, v-green, vue-pro, healer-readable贡献主题:https://github.com/xitu/juejin-markdown-themestheme: smartbluehighlight:在上一篇文章中已经讲解了Siamese Net的原理,和这种.原创 2020-12-07 16:09:36 · 2613 阅读 · 3 评论 -
孪生网络入门(上) Siamese Net及其损失函数
最近在多个关键词(小数据集,无监督半监督,图像分割,SOTA模型)的范畴内,都看到了这样的一个概念,孪生网络,所以今天有空大概翻看了一下相关的经典论文和博文,之后做了一个简单的案例来强化理解。如果需要交流的话欢迎联系我,WX:cyx645016617。所以这个孪生网络入门,我想着分成上下两篇,上篇也就是这一篇讲解模型理论、基础知识和孪生网络独特的损失函数;下篇讲解一下如何用代码来复线一个简单的孪生网络。1 名字的由来孪生网络的别名就会死Siamese Net,而Siam是古代泰国的称呼,所以Siame原创 2020-12-06 11:24:33 · 3631 阅读 · 4 评论 -
图像分割必备知识点 | Unet++ 超详解+注解
文章来自周纵苇大佬的知乎,是Unet++模型的一作大佬,其在2019年底详细剖析了Unet++模型,讲解的非常好。所以在此做一个搬运+个人的理解。 文中加粗部分为个人做的注解。需要讨论交流的朋友可以加我的微信:cyx645016617,也可以加入我建立的一个氛围超好的AI算法交流群。我只是一个在智能算法路上缓慢前行的应届混子。参考目录:文章目录1 铺垫2 展开3 主体4 高潮5 最后一提1 铺垫在计算机视觉领域,全卷积网络(FCN)是比较有名的图像分割网络,医学图像处理方向,U-Net可以说是一个更原创 2020-12-03 17:49:34 · 13710 阅读 · 7 评论 -
图像分割必备知识点 | Unet详解 理论+ 代码
文章转自:微信公众号【机器学习炼丹术】。文章转载或者交流联系作者微信:cyx645016617Unet其实挺简单的,所以今天的文章并不会很长。喜欢的话可以参与文中的讨论、在文章末尾点赞、在看点一下呗。0 概述语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。上图为自动驾驶中的移动分割任务的分割结果,可以从一张图片中有效的识别原创 2020-11-26 13:47:11 · 43517 阅读 · 12 评论 -
图像分割必备知识点 | Dice损失 理论+代码
本文包含代码案例和讲解,建议收藏,也顺便点个赞吧。欢迎各路朋友爱好者加我的微信讨论问题:cyx645016617.在很多关于医学图像分割的竞赛、论文和项目中,发现 Dice 系数(Dice coefficient) 损失函数出现的频率较多,这里整理一下。使用图像分割,绕不开Dice损失,这个就好比在目标检测中绕不开IoU一样。1 概述Dice损失和Dice系数(Dice coefficient)是同一个东西,他们的关系是:DiceLoss=1−DiceCoefficientDiceLoss = 1-原创 2020-11-25 10:52:23 · 11445 阅读 · 2 评论 -
3D卷积入门 | 多论文笔记 | R2D C3D P3D MCx R(2+1)D
文章转自微信公众号:【机器学习炼丹术】。有问题或者需要加入粉丝交流群可以私信作者~文章目录0 前言1 R2D2 C3D2.1 R3D3 P3D4 MCx5 R(2+1)D【前前沿】:某一次和粉丝交流的时候,收获一句话:人点亮技能书,不是一次性电量的。是反复折腾,反复批判,反复否定与肯定,加深了记忆轴。 —某位粉丝0 前言看到这篇论文是因为之前看到一篇Nature上的某一篇医疗影像的论文中用到了这几个算法,R3D,MC3和R2+1D的3D卷积的算法。因为对3D卷积的算法了解比较局限,所以开始补一原创 2020-11-22 14:19:11 · 3219 阅读 · 3 评论 -
医学AI论文解读 |Circulation|2018| 超声心动图的全自动检测在临床上的应用
文章来自微信公众号:机器学习炼丹术。号主炼丹兄WX:cyx645016617.文章有问题或者想交流的话欢迎~参考目录:文章目录0 论文1 概述2 pipeline3 技术细节3.1 预处理3.2 卷积网络3.3 VGG分类网络结构3.4 图像分割4 遇到的问题0 论文论文是2018年的,发表在医学期刊《Circulation》的一篇文章《Fully Automated Echocardiogram Interpretation in Clinical Practice》 (超声心动图在临床中的自动化原创 2020-11-19 17:21:07 · 941 阅读 · 0 评论 -
常见特征金字塔网络FPN及变体
好久没有写文章了(对不起我在划水),最近在看北京的租房(真真贵呀)。预告一下,最近无事,根据个人多年的证券操作策略和自己的浅显的AI时间序列的算法知识,还有自己Javascript的现学现卖,在微信小程序上弄了个简单的辅助系统。我先试试效果如何,不错的话将来弄个文章给大家介绍介绍。感兴趣可以联系炼丹兄哦,WX:cyx645016617。1 概述FPN是Feature Parymid Network的缩写。目标检测任务中,像是在YOLO1中那种,对一个图片使用卷积来提取特征,经过了多个池化层或.原创 2020-11-09 00:13:12 · 3793 阅读 · 3 评论 -
【小白学PyTorch】21 Keras的API详解(下)池化、Normalization层
文章来自微信公众号:【机器学习炼丹术】。作者WX:cyx645016617.参考目录:文章目录1 池化层1.1 最大池化层1.2 平均池化层1.3 全局最大池化层1.4 全局平均池化层2 Normalization2.1 BN2.2 LN下篇的内容中,主要讲解这些内容:四个的池化层;两个Normalization层;1 池化层和卷积层相对应,每一种池化层都有1D,2D,3D三种类型,这里主要介绍2D处理图像的一个操作。1D和3D可以合理的类推。1.1 最大池化层tf.keras.lay原创 2020-10-15 13:18:13 · 738 阅读 · 0 评论 -
【小白学PyTorch】21 Keras的API详解(上)卷积、激活、初始化、正则
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、时间序列等多个目标为技术学习的分群和水群唠嗑答疑解惑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录1 Keras卷积层1.1 Conv2D1.2 SeparableConv2D1.3 Conv2DTranspose1.3.1 去卷积的例子11.3.2 去卷积的例子22 Keras参数初始化2.1 正态分布2.2 均匀分布2.3 截尾正态分布2.4 常数2.5 Xavier/原创 2020-10-10 14:18:59 · 186 阅读 · 0 评论 -
【小白学PyTorch】20 TF2的eager模式与求导
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、时间序列等多个目标为技术学习的分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录1 什么是eager模式2 TF1.0 vs TF2.03 获取导数/梯度4 获取高阶导数之前讲解了如何构建数据集,如何创建TFREC文件,如何构建模型,如何存储模型。**这一篇文章主要讲解,TF2中提出的一个eager模式,这个模式大大简化了TF的复杂程度。**1 什么是eage原创 2020-10-08 12:45:44 · 375 阅读 · 0 评论 -
【小白学PyTorch】19 TF2模型的存储与载入
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、时间序列等多个目标为技术学习的分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录1 模型的构建2 结构参数的存储与载入3 参数的存储与载入4 结构的存储与载入本文主要讲述TF2.0的模型文件的存储和载入的多种方法。主要分成两类型:模型结构和参数一起载入,模型的结构载入。1 模型的构建import tensorflow.keras as kerasclas原创 2020-10-07 11:15:23 · 253 阅读 · 1 评论 -
【小白学PyTorch】18 TF2构建自定义模型
【机器学习炼丹术】的炼丹总群已经快满了,要加入的快联系炼丹兄WX:cyx645016617参考目录:文章目录1 创建自定义网络层2 创建一个完整的CNN2.1 keras.Model vs keras.layers.Layer之前讲过了如何用tensorflow构建数据集,然后这一节课讲解如何用Tensorflow2.0来创建模型。TF2.0中创建模型的API基本上都放到了它的Keras中了,Keras可以理解为TF的高级API,里面封装了很多的常见网络层、常见损失函数等。 后续会详细介绍keras原创 2020-10-04 14:13:54 · 505 阅读 · 0 评论 -
【小白学PyTorch】17 TFrec文件的创建与读取
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、时间序列等多个目标为技术学习的分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录1 为什么用tfrec文件2 tfrec文件的内部结构3 制作tfrec文件4 读取tfrec文件本文的代码已经上传公众号后台,回复【PyTorch】获取。第一次接触到TFrec文件,我也是比较蒙蔽的其实:可以看到文件是.tfrec后缀的,而且先记住这个文件是186.72MB大原创 2020-10-03 11:18:52 · 600 阅读 · 0 评论 -
【小白学PyTorch】16 TF2读取图片的方法
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、NLP等多个学术交流分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录1 PIL读取图片2 TF读取图片3 TF构建数据集本文的代码已经上传公众号后台,回复【PyTorch】获取。1 PIL读取图片想要把一个图片,转换成RGB3通道的一个张量,我们怎么做呢?大家第一反应应该是PIL这个库吧from PIL import Imageimport numpy原创 2020-09-30 15:51:32 · 652 阅读 · 0 评论 -
【小白学PyTorch】15 TF2实现一个简单的服装分类任务
【新闻】:机器学习炼丹术的粉丝的人工智能交流群已经建立,目前有目标检测、医学图像、时间序列等多个目标为技术学习的分群和水群唠嗑的总群,欢迎大家加炼丹兄为好友,加入炼丹协会。微信:cyx645016617.参考目录:文章目录0 为什么学TF1 Tensorflow的安装2 数据集构建2 预处理3 构建模型4 优化器5 训练与预测0 为什么学TF之前的15节课的pytorch的学习,应该是让不少朋友对PyTorch有了一个全面而深刻的认识了吧 (如果你认真跑代码了并且认真看文章了的话) 。大家都会比较原创 2020-09-29 13:40:08 · 568 阅读 · 0 评论 -
【小白学PyTorch】13 EfficientNet详解及PyTorch实现
参考目录:文章目录1 EfficientNet1.1 概述1.2 把扩展问题用数学来描述1.3 实验内容1.4 compound scaling method1.5 EfficientNet的基线模型2 PyTorch实现文章来自微信公众号【机器学习炼丹术】。我是炼丹兄,如果有疑问或者想要和炼丹兄交流的可以加微信:cyx645016617.efficientNet的论文原文链接: https://arxiv.org/pdf/1905.11946.pdf模型扩展Model scaling一直以来都是提原创 2020-09-25 10:29:26 · 6255 阅读 · 2 评论 -
【小白学PyTorch】12 SENet详解及PyTorch实现
文章来自微信公众号【机器学习炼丹术】。我是炼丹兄,有什么问题都可以来找我交流,近期建立了微信交流群,也在朋友圈抽奖赠书十多本了。我的微信是cyx645016617,欢迎各位朋友。文章目录1 网络结构2 参数量分析3 PyTorch实现与解析上一节课讲解了MobileNet的一个DSC深度可分离卷积的概念,希望大家可以在实际的任务中使用这种方法,现在再来介绍EfficientNet的另外一个基础知识—,Squeeze-and-Excitation Networks压缩-激活网络1 网络结构可以看出来原创 2020-09-19 09:32:53 · 1207 阅读 · 2 评论 -
【小白学PyTorch】11 MobileNet详解及PyTorch实现
文章来自微信公众号【机器学习炼丹术】。我是炼丹兄,欢迎加我微信好友交流学习:cyx645016617。文章目录1 背景2 深度可分离卷积2.2 一般卷积计算量2.2 深度可分离卷积计算量2.3 网络结构3 PyTorch实现本来计划是想在今天讲EfficientNet PyTorch的,但是发现EfficientNet是依赖于SENet和MobileNet两个网络结构,所以本着本系列是给“小白”初学者学习的,所以这一课先讲解MobileNet,然后下一课讲解SENet,然后再下一课讲解Efficient原创 2020-09-15 08:32:43 · 704 阅读 · 4 评论 -
【小白学PyTorch】10 pytorch常见运算详解
文章来自微信公众号【机器学习炼丹术】。有问题可以咨询“炼丹兄”,WX:cyx645016617这一课主要是讲解PyTorch中的一些运算,加减乘除这些,当然还有矩阵的乘法这些。这一课内容不多,作为一个知识储备。在后续的内容中,有用PyTorch来获取EfficientNet预训练模型以及一个猫狗给分类的实战任务教学。加减乘除就不多说了,±*/1 矩阵与标量这个是矩阵(张量)每一个元素与标量进行操作。import torcha = torch.tensor([1,2])print(a+1)&g原创 2020-09-14 21:51:09 · 512 阅读 · 0 评论 -
【小白学PyTorch】9 tensor数据结构与存储结构
文章来自微信公众号【机器学习炼丹术】。上一节课,讲解了MNIST图像分类的一个小实战,现在我们继续深入学习一下pytorch的一些有的没的的小知识来作为只是储备。参考目录:文章目录1 pytorch数据结构1.1 默认整数与浮点数1.2 dtype修改变量类型1.3 变量类型有哪些1.4 数据类型转换2 torch vs numpy2.1 两者转换2.2 两者区别3 张量3.1 张量修改尺寸3.2 张量内存存储结构3.3 存储区3.4 头信息区1 pytorch数据结构1.1 默认整数与浮点数【原创 2020-09-12 12:34:18 · 296 阅读 · 0 评论 -
【小白学PyTorch】8 实战之MNIST小试牛刀
文章来自微信公众号【机器学习炼丹术】。有什么问题都可以咨询作者WX:cyx645016617。想交个朋友占一个好友位也是可以的~好友位快满了不过。文章目录1 探索性数据分析1.1 数据集基本信息1.2 数据集可视化1.3 类别是否均衡2 训练与推理2.1 构建dataset2.2 构建模型类2.3 训练模型2.4 推理预测在这个文章中,主要是来做一下MNIST手写数字集的分类任务。这是一个基础的、经典的分类任务。建议大家一定要跟着代码做一做,源码已经上传到公众号。1 探索性数据分析一般在进行模型训练原创 2020-09-09 10:59:34 · 340 阅读 · 0 评论 -
【小白学PyTorch】7 最新版本torchvision.transforms常用API翻译与讲解
文章转自:微信公众号【机器学习炼丹术】。有需要的话,可以添加作者微信交流:cyx645016617。朋友圈经常抽奖送书送红包哈哈。参考目录:文章目录1 基本函数1.1 Compose1.2 RandomChoice1.3 RandomOrder2 PIL上的操作2.1 中心切割CenterCrop2.2 随机切割RandomCrop2.3 随机比例切割2.4 颜色震颤ColorJitter2.5 随机旋转RandomRotation2.6 灰度化Grayscale2.7 size2.8 概率随机(常用原创 2020-09-07 13:58:51 · 315 阅读 · 0 评论 -
【小白学PyTorch】5 torchvision预训练模型与数据集全览
内容来自微信公众号【机器学习炼丹术】,一个AI专业研究生的学习分享公众号。文章目录:文章目录torchvision1 torchvision.datssets2 torchvision.models模型比较torchvision官网上的介绍(翻墙):The torchvision package consists of popular datasets, model architectures, and common image transformations for computer visio原创 2020-09-01 01:07:33 · 1066 阅读 · 0 评论 -
【小白学PyTorch】动态图与静态图的浅显理解
文章来自公众号【机器学习炼丹术】,回复“炼丹”即可获得海量学习资料哦!文章目录1 动态图的初步推导2 动态图的叶子节点3. grad_fn4 静态图本章节缕一缕PyTorch的动态图机制与Tensorflow的静态图机制(最新版的TF也支持动态图了似乎)。1 动态图的初步推导计算图是用来描述运算的有向无环图计算图有两个主要元素:结点(Node)和边(Edge);结点表示数据 ,如向量、矩阵、张量;边表示运算 ,如加减乘除卷积等;上图是用计算图表示:y=(x+w)∗(w+1)y=(x+原创 2020-08-23 06:15:28 · 1523 阅读 · 0 评论 -
【评价指标】详解F1-score与多分类MacroF1&MicroF1
基本概念首先,要背住的几个概念就是:accuracy,precision,recal, TP,FP,TN,FNTP:true positive。预测是正确的正样本FP:false positive。预测是错误的正样本TN:true negative。预测是正确的负样本FP:false positive。预测是错误的负样本通常我们会做出这样的一个混淆矩阵:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rc8E9gBl-1595353574343)(http:/原创 2020-07-22 01:46:56 · 7595 阅读 · 0 评论 -
AI面试题之(反)卷积输出尺寸计算
1 给我背住【卷积计算公式】output=input+2∗padding−kernelstride+1output=\frac{input+2*padding-kernel}{stride}+1output=strideinput+2∗padding−kernel+1【反卷积计算公式】output=stride∗(input−1)+2∗padding−kernel+2output=stride*(input-1)+2*padding-kernel+2output=stride∗(input−1)+原创 2020-07-02 02:32:37 · 3309 阅读 · 1 评论 -
算法岗面试题:模型的bias和variance是什么?用随机森林举例
校招在即,准备准备一些面试可能会用到的东西吧。希望这次面试不会被挂。基本概念说到机器学习模型的误差,主要就是bias和variance。Bias:如果一个模型的训练错误大,然后验证错误和训练错误都很大,那么这个模型就是高bias。可能是因为欠拟合,也可能是因为模型是弱分类器。Variance:模型的训练错误小,但是验证错误远大于训练错误,那么这个模型就是高Variance,或者说它是过拟合。这个图中,左上角是低偏差低方差的,可以看到所有的预测值,都会落在靶心,完美模型;右上角是高偏原创 2020-06-24 18:19:38 · 2558 阅读 · 0 评论 -
一文入门:XGBoost与手推二阶导
作者前言在2020年还在整理XGB的算法,其实已经有点过时了。。不过,主要是为了学习算法嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradient-boost算法,这篇文章讲解一下XGBoost。Adaboost和XGBoost无关,但是Gradient-boost与XGBoost有一定关系。一文搞懂:Adaboost及手推算法案例一文读懂:GBDT梯度提升树模型概述XGB就是Extreme G原创 2020-06-22 21:02:37 · 2208 阅读 · 0 评论 -
一文读懂:GBDT梯度提升
先缕一缕几个关系:GBDT是gradient-boost decision treeGBDT的核心就是gradient boost,我们搞清楚什么是gradient boost就可以了GBDT是boost中的一种方法,boost还有XGBoost,adaboost。基本概念【Boost】就是让多个弱分类器,通过不同的集成方式,来让多个弱分类器变成一个强分类器。【gradient-boost】 梯度提升。简单的说,先训练一个弱分类器,然后弱分类器和目标值之间的残差,作为下一个弱分类器训练的目标原创 2020-06-22 03:30:06 · 601 阅读 · 0 评论 -
一文搞懂:Adaboost及手推算法案例
boostingBoosting 算法的特点在于:将表现一般的弱分类器通过组合变成更好的模型。代表自然就是我们的随即森林了。GBDT和Adaboost是boost算法中比较常见的两种,这里主要讲解Adaboost。AdaboostAdaboost算法的核心就是两个权重。对于数据有一个权重,权重大的数据计算的损失就大;然后对于每一个弱分类器有一个权重,这个权重就是每一个弱分类器最终投票的比重。【先给出Adaboost关键的公式】:α1=12ln(1−ϵ1ϵ1)\alpha_1=\frac{1}{2原创 2020-06-21 06:43:22 · 603 阅读 · 2 评论 -
一文读懂:防止过拟合的所有方法
什么是过拟合过拟合就是在训练集上表现得非常好,在测试集上表现得不好。也就是我们俗称的泛化能力弱。过拟合无法避免,只能缓解,那么如何缓解呢?方法太多了。这篇文章一一介绍。数据集增强Augmentation图像上,翻转,平移,缩放,旋转,镜像,增强对比度,增强亮度等诸多方式。我在下面的内容中介绍了图像处理的图像增强的方法:【预处理库函数】albumentations库的简单了解和使用Early Stopping训练模型的时候,训练误差往往是不断下降的,但是验证数据集的误差,是先下降后上升。 两.原创 2020-06-20 02:49:45 · 675 阅读 · 0 评论 -
一文搞懂:线性回归与逻辑回归(似然参数估计)
线性回归解决的是回归问题,逻辑回归相当于是线性回归的基础上,来解决分类问题。公式线性回归(Linear Regression)是什么相比不用多说了。格式是这个样子的:fw,b(x)=∑iwixi+bf_{w,b}(x)=\sum_i{w_ix_i}+bfw,b(x)=∑iwixi+b而逻辑回归(Logistic Regression)的样子呢?fw,b(x)=σ(∑iwixi+b)f_{w,b}(x)=\sigma(\sum_i{w_ix_i}+b)fw,b(x)=σ(∑iwixi原创 2020-06-20 02:47:13 · 986 阅读 · 0 评论 -
近期文章更新一览
好久没有在知乎写过文章了,一个是因为近期期末考试,临近毕业;一个是因为近期建立了自己的小网站,感觉非常新奇。这里列举写一下近期的文章内容和链接:简单通俗的讲讲无参数模型的入门模型——局部加权线性回归。入门 局部加权线性回归 - 你好,世界简单说说什么是核密度估计,很短,可以就当是扩展知识了:入门 核密度估计Kernel Density Estimation近期大数据竞赛中有一个非常厉害的大佬用到了这个,刚好趁机学一学。【详解】隐式马尔科夫模型+代码 - 你好,世界金融和市场的一原创 2020-05-31 02:53:47 · 290 阅读 · 0 评论